JP2008506328A - 基礎階層を利用するスケーラブルビデオコーディング方法および装置。 - Google Patents

基礎階層を利用するスケーラブルビデオコーディング方法および装置。 Download PDF

Info

Publication number
JP2008506328A
JP2008506328A JP2007521391A JP2007521391A JP2008506328A JP 2008506328 A JP2008506328 A JP 2008506328A JP 2007521391 A JP2007521391 A JP 2007521391A JP 2007521391 A JP2007521391 A JP 2007521391A JP 2008506328 A JP2008506328 A JP 2008506328A
Authority
JP
Japan
Prior art keywords
frame
base layer
temporal
mode
spatial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007521391A
Other languages
English (en)
Other versions
JP5014989B2 (ja
Inventor
ハン,ウ−ジン
ハ,ホ−ジン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2008506328A publication Critical patent/JP2008506328A/ja
Application granted granted Critical
Publication of JP5014989B2 publication Critical patent/JP5014989B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

本発明はビデオ圧縮に関するものであって、より詳細にはスケーラブルビデオコーディングにおいて基礎階層を利用して、より効率的に時間的フィルタリングを行う方法に関するものである。
本発明によるスケーラブルビデオエンコーダでの時間的フィルタリング方法は、入力された元ビデオシーケンスに対して時間的ダウンサンプリングおよび空間的ダウンサンプリングを行い、支援される最低フレーム率および最低解像度を有するビデオシーケンスを生成する段階と、基礎階層を所定のコーデックでエンコーディングした後、デコーディングする段階と、デコーディングされた基礎階層を支援される最高解像度でアップサンプリングする段階と、元ビデオシーケンスの最上位時間的レベルに存在するフレームを前記アップサンプリングされた基礎階層を利用してフィルタリングする段階で構成されている。

Description

本発明はビデオ圧縮に関するものであって、より詳細にはスケーラブルビデオコーディングにおいて基礎階層(base−layer)を利用して、より効率的に時間的フィルタリングを行う方法に関するものである。
インターネットを含めて情報通信技術が発達するのにともない文字、音声だけでなく画像通信が増加している。既存の文字を中心とした通信方式では消費者の多様な欲求を満足させることができず、これに伴い文字、映像、音楽など多様な形態の情報を受容することができるマルチメディアサービスが増加している。
マルチメディアデータはその量が膨大であり、大容量の保存媒体を必要とし伝送時に広い帯域幅を必要とする。例をあげれば640*480の解像度を有する24bitトゥルーカラーのイメージは一フレーム当たり640*480*24bitの容量、言い換えれば約7.37Mbitのデータが必要である。
これを秒当たり30フレームで送る場合には221Mbit/secの帯域幅を必要とし、90分間上映される映画を保存すれば約1200Gbitの保存空間を必要とする。
したがって、文字、映像、オーディオを含んだマルチメディアデータを伝送するためには圧縮コーディング技法を使うのが必須的である。
データを圧縮する基本的な原理はデータの重複(冗長)を除去する過程である。イメージで同じ色やオブジェクトが反復されるような空間的重複や、動映像フレームで隣接フレームがほとんど変化しない場合や、オーディオで同じ音が継続して反復するような時間的重複、または人間の視覚および知覚能力が、高い周波数に鈍感なことを考慮した審理視覚重複をなくすことによってデータを圧縮することができる。
データ圧縮の種類はソースデータの損失可否と、それぞれのフレームに対して独立的に圧縮するのか否かと、圧縮と復元に必要な時間が同一なのか可否により各々損失/無損失圧縮、フレーム内/フレーム間圧縮、対称/非対称圧縮に分けることができる。
この他にも圧縮復元遅延時間が50msを越えない場合にはリアルタイム圧縮として分類し、フレームの解像度が多様な場合はスケーラブル圧縮として分類する。文字データや医学用データなどの場合には無損失圧縮が利用され、マルチメディアデータの場合には主に損失圧縮が利用される。一方空間的重複を除去するためにはフレーム内の圧縮が利用され、時間的重複を除去するためにはフレーム間圧縮が利用される。
マルチメディアを伝送するための伝送媒体は媒体別にその性能が異なる。現在使用される伝送媒体は秒当たり数十Mbitのデータを伝送することができる超高速通信網から秒当たり384kbitの伝送速度を有する移動通信網などのように多様な伝送速度を有している。
MPEG−1、MPEG−2、MPEG−4、H.263、またはH.264のような従前のビデオコーディングはモーション補償予測に基づいて、時間的重複はモーション補償および時間的フィルタリングによって、除去して空間的重複は空間的変換によって、除去する。このような方法は良い圧縮率を持っているが主アルゴリズムで再帰的接近法を使用しており真正なスケーラブルビットストリームのための柔軟性を持つことができない。
このため最近ではウェーブレット基盤(wavelet−based)のスケーラブルビデオコーディングに対する研究が活発である。スケーラブルビデオコーディングは空間的領域、すなわち解像度の面でスケーラビリティを有するビデオコーディングを意味する。ここでスケーラビリティとは圧縮された一つのビットストリームから部分デコーディング、すなわち、多様な解像度のビデオを再生することができる特性を意味する。
このようなスケーラビリティにはビデオの解像度を調節することができる性質を意味する空間的スケーラビリティとビデオの画質を調節することができる性質を意味するSNR(信号対雑音比)スケーラビリティと、フレーム率を調節することができる時間的スケーラビリティと、これら各々を組合せたことを含む概念である。
上記のように空間的スケーラビリティはウェーブレット変換によって具現されえ、SNRスケーラビリティは量子化によって具現されえる。一方、時間的スケーラビリティを具現する方法としては最近、MCTF(Motion Compensated Temporal Filtering)、UMCTF(Unconstrained MCTF)等の方法が使用されている。
図1および図2は従来のMCTFフィルタを利用して時間的スケーラビリティを具現する過程を説明する図である。このうち図1はエンコーダでの時間的フィルタリング過程を示したもので、図2はデコーダでの逆時間的フィルタリング動作を示したものである。
図2でLフレームは低周波あるいは平均フレームを意味し、Hフレームは高周波あるいは差異フレームを意味する。図示されたようにコーディングは低い時間的レベルにあるフレーム対を先に時間的フィルタリングをし、低いレベルのフレームを高いレベルのLフレームとHフレームに転換し、転換されたLフレーム対は改めて時間的フィルタリングを行い、さらに高い時間的レベルのフレームで転換される。
ここで、Hフレームは他の位置のLフレームまたは原ビデオフレームを参照フレームとしてモーション推定を行った後、時間的フィルタリングを行い生成されるが、図1では矢印を通してHフレームが参照する参照フレームを示している。このようにHフレームは両方向で参照することもできるが、逆方向または順方向と一つだけ参照することもできる。
結果的に、エンコーダは最も高いレベルのLフレーム一つと残りHフレームを利用して空間的変換を経てビットストリームを生成する。図2で濃い色で表示されたフレームは空間的変換の対象となるフレームを意味する。
デコーダは受信したビットストリーム(20または25)から逆空間的変換を経た後に得られた濃い色のフレームを高いレベルから低いレベルのフレームの順序で演算してフレームを復元する。すなわち、時間的レベル3のLフレームとHフレームを利用して時間的レベル2のLフレーム2個を復元し、時間的レベルのLフレーム2個とHフレーム2個を利用して時間的レベル1のLフレーム4個を復元する。最終的に時間的レベル1のLフレーム4個とHフレーム4個を利用して原ビデオフレーム8個を復元する。
このようなスケーラビリティを支援するビデオコーディングシステム、すなわちスケーラブルビデオコーディングシステムの全体的構成は図3に図示した通りである。まず、エンコーダ40は時間的フィルタリング、空間的変換、および量子化過程を通して入力ビデオ10を符号化し、ビットストリーム20を生成する。そして、プレデコーダ50はデコーダ60との通信環境またはデコーダ60端での機器性能等を考慮した条件、例えば、画質、解像度またはフレーム率を抽出条件として、エンコーダ40から受信したビットストリーム20のうちテクスチャデータの一部を抽出することによってテクスチャデータに対するスケーラビリティを具現することができる。
デコーダ60は前記抽出したビットストリーム25からエンコーダ40で行われた過程を逆に行い出力ビデオ30を復元する。もちろん、前記抽出条件によるビットストリームの抽出は必ずプレデコーダ50で行われなければならないというものではなくデコーダ60で行うこともでき、また、プレデコーダ50およびデコーダ60すべてで行うこともできる。
以上で説明したスケーラブルビデオコーディング技術は現在MPEG−21 scalable video codingの中心技術を成している。このコーディング技術は、時間的スケーラビリティを支援するためにMCTF、UMCTFなどのような時間的フィルタリング方法を使用し、空間的スケーラビリティを支援するためにウェーブレット変換を利用した空間的変換方法を利用する。
このようなスケーラブルビデオコーディングを利用すれば、画質、解像度、フレーム率をすべてプレデコーダ50端で変形することができる長所があり、高いビット率では圧縮率もまたかなり優秀である。しかし、ビット率が充分でない場合MPEG−4、H.264等既存のコーディング方法に比べてその性能が低下する可能性がある。
これは複合的な原因によって発生するが、まず低い解像度ではウェーブレット変換がDCT(ディスクリートコサイン変換)に比べ、その性能が落ちることに一次的な原因がある。そして、多様なビット率を支援しなければならないスケーラブルビデオコーディングの特性上、その中の一つのビット率に最適化されるようにエンコーディング過程が行われるため他のビット率ではその性能が落ちるようになることも他の原因になるといえる。
本発明は前記した問題点を考慮して創案されたもので、低いビット率と高いビット率で等しい性能をみせるスケーラブルビデオコーディング方法を提供することを目的とする。
また、本発明は支援すべきビット率のうち最も低いビット率ででは、低いビット率で高い性能をみせるコーディング方法で圧縮を行い、他のビット率ではこの結果を利用してウェーブレット基盤のスケーラブルビデオコーディングを行う方法を提供することを目的とする。
また、本発明は前記ウェーブレット基盤のスケーラブルビデオコーディング時前記最も低いビット率でコーディングある結果を利用して、モーション推定を行う方法を提供するのを目的とする。
前記した目的を達成するために、本発明によるスケーラブルビデオエンコーダでの時間的フィルタリング方法は、(a)入力された元ビデオシーケンスに対し時間的ダウンサンプリングおよび空間的ダウンサンプリングを行い、支援される最低フレーム率および最低解像度を有するビデオシーケンスを生成する段階、(b)前記生成されたビデオシーケンスを所定のコーデックでエンコーディングした後にデコーディングする段階、(c)前記デコーディングされた基礎階層を、支援される最高解像度でアップサンプリングする段階、(d)前記元ビデオシーケンスの最上位時間的レベルに存在するフレームを前記アップサンプリングされた基礎階層を利用してフィルタリングする段階を含む。
また、前記した目的を達成するための、本発明によるスケーラブルビデオエンコーディング方法は、(a)入力された元ビデオシーケンスから、支援される最低フレーム率および最低解像度を有する基礎階層を生成する段階、(b)前記基礎階層を、支援される最高解像度でアップサンプリングし前記アップサンプリングされた基礎階層を利用して入力された元ビデオシーケンスに対する時間的フィルタリングを行う段階、(c)前記時間的フィルタリングによって生成されるフレームに対し空間的変換を行う段階、(d)前記空間的変換によって生成される変換計数を量子化する段階、および(e)前記生成された基礎階層および前記量子化された変換計数を含むビットストリームを生成する段階を含む。
また、前記した目的を達成するための、本発明によるスケーラブルビデオデコーダで時間的にフィルタリングされたフレームを復元する方法において、(a)前記フィルタリングされたフレームが最上位時間的レベルに存在するフレームのうち低周波フレームの場合には前記低周波フレームと対応する基礎階層と合わせることによって原フレームを復元する段階、(b)前記フィルタリングされたフレームが前記最上位時間的レベルに存在するフレームのうち高周波フレームの場合にはエンコーダ側から転送されるモード情報にしたがい前記高周波フレームの各ブロック別に原フレームを復元する段階と、(c)前記フィルタリングされたフレームが前記最上位以外の時間的レベルに存在するフレームの場合にはエンコーダ側から転送されるモーション情報にしたがい原フレームを復元する段階を含む。
また、前記した目的を達成するための、本発明によるスケーラブルビデオデコーディング方法は、(a)入力されたビットストリームを解釈して、基礎階層の情報と、それ以外階層の情報を分離して抽出する段階と、(b)前記基礎階層の情報を所定のコーデックでデコーディングする段階と、(c)前記デコーディングされた基礎階層のフレームを支援される最高解像度でアップサンプリングする段階と、(d)前記以外階層の情報のうちテクスチャ情報を逆量子化して変換計数を出力する段階と、(e)前記変換計数を空間的領域での変換計数で逆変換する段階および(f)前記アップサンプリングされた基礎階層を利用して、前記空間的領域での変換計数からビデオシーケンスを復元する段階を含む。
また、前記した目的を達成するための、本発明によるスケーラブルビデオエンコーダは、入力された元ビデオシーケンスから、支援される最低フレーム率および最低解像度を有する基礎階層を生成し、前記基礎階層を、支援される最高解像度でアップサンプリングする基礎階層生成モジュールと、前記アップサンプリングされた基礎階層を利用して入力された元ビデオシーケンスに対する時間的フィルタリングを行う時間的フィルタリングモジュールと、前記時間的フィルタリングによって生成されるフレームに対し空間的変換を行う空間的変換モジュール、および前記空間的変換によって生成される変換計数を量子化する量子化モジュールを含む。
また、前記した目的を達成するための、本発明によるスケーラブルビデオデコーダは、入力されたビットストリームを解釈して基礎階層の情報と、以外階層の情報を分離して抽出するビットストリーム解釈モジュールと、前記基礎階層の情報を所定のコーデックでデコーディングする基礎階層デコーダと、前記デコーディングされた基礎階層のフレームを、支援される最高解像度でアップサンプリングする空間的アップサンプリングモジュールと、前記以外階層の情報のうちテクスチャ情報を逆量子化して変換計数を出力する逆量子化モジュールと、前記変換計数を空間的領域での変換計数で逆変換する逆空間的変換モジュール、および前記アップサンプリングされた基礎階層を利用して前記空間的領域での変換計数からビデオシーケンスを復元する逆時間的フィルタリングモジュールを含む。
本発明によれば、スケーラブルビデオコーディングにおいて、低いビット率と高いビット率で等しく高い性能を持つようにする効果がある。
また、本発明によれば、スケーラブルビデオコーディングにおいて、より正確なモーション推定を行うことができる効果がある。
以下、添付された図面を参照して、本発明の好ましい実施形態を詳細に説明する。本発明の利点および特徴、そしてそれらを達成する方法は添付される図面と共に詳細に後述されている実施形態を参照すれば明確になるだろう。
しかし本発明は以下で開示される実施形態に限定されるものではなく互いに異なる多様な形態で具現されるものであり、単に本実施形態は本発明の開示が完全なようにし、本発明が属する技術分野で通常の知識を有する者に発明の範疇を完全に知らせるために提供されているもので、本発明は請求項の範疇によって定義されるのみである。
明細書全体にかけて、同一参照符号は同一構成要素を指し示す。
本発明は、基礎階層に対してはMPEG−4、H.264等低いビット率で高い性能をみせるコーディング方法で圧縮を行う。そして、この基礎階層を利用して、それより高いビット率に対するスケーラビリティを支援できるようにウェーブレット基盤のスケーラブルビデオコーディング方法を適用することによって、ウェーブレット基盤のスケーラブルビデオコーディングの長所を生かしながらも、低いビット率での性能を向上させようとする。
ここで、基礎階層というのは、スケーラブルビデオエンコーダで実際に生成されるビットストリームが有する最高フレーム率より低いフレーム率を、前記ビットストリームが持つ最高解像度より低い解像度を有するビデオシーケンスを意味する。このように、基礎階層は前記最高フレーム率および前記最高解像度より低いあるフレーム率および解像度を有すればよく、必ず前記ビットストリームが有する最低フレーム率および最低解像度を有する必要はないが、本発明の好ましい実施形態として、基礎階層は最低フレーム率および最低解像度を有するものとして説明するものである。
以下、本明細書で、このような最低フレーム率および最低解像度、または後述する最高解像度はすべて実際に生成されるビットストリームを基準として決定するもので、スケーラブルビデオエンコーダ自体が支援できる最低フレーム率や最低解像度、または最高解像度とは区別される。このような本発明の一実施形態によるスケーラブルビデオエンコーダ100は図4に図示するものと同様である。スケーラブルビデオエンコーダ100は基礎階層生成モジュール110、時間的フィルタリングモジュール120、モーション推定モジュール130、モード選択モジュール140、空間的変換モジュール150、量子化モジュール160、ビットストリーム生成モジュール170、および空間的アップサンプリングモジュール180を含み構成される。
基礎階層生成モジュール110は改めて、時間的ダウンサンプリングモジュール111、空間的ダウンサンプリングモジュール112、基礎階層エンコーダ113、および基礎階層デコーダ114を含み構成される。時間的ダウンサンプリングモジュール111と空間的ダウンサンプリングモジュール112は一つのダウンサンプリングモジュール115で具現されることもありえる。
入力されたビデオシーケンスは基礎階層生成モジュール110と時間的フィルタリングモジュール120に入力される。基礎階層生成モジュール110は入力されたビデオシーケンス、すなわち最高解像度および最高フレーム率を有する元ビデオシーケンスを時間的フィルタリングで支援される最低フレーム率および、空間的変換で支援される最低解像度を有するビデオシーケンスに変更する。
次に、このシーケンスを低いビット率で相対的に優秀な画質をみせるコーデックで圧縮した後、またこれを復元する。この復元された映像を基礎階層と定義する。この基礎階層をアップサンプリングして、改めて最高解像度を有するフレームを生成し、これをB−イントラ推定をする時、参照フレームで使用することができるよう時間的フィルタリングモジュール120に提供する。
基礎階層生成モジュール110の細部モジュールの動作をより詳しく察しみる。
時間的ダウンサンプリングモジュール111は最高フレーム率を有する元ビデオシーケンスをエンコーダ100が支援する最低フレーム率を有するビデオシーケンスでダウンサンプリングする。
このような時間的ダウンサンプリングは従来の方法によって、行われるが、単純にフレームをスキップ(skip)という方法、スキップと同時に残余フレームにスキップされるフレームの情報を一部反映する方法などがありえ、MCTFのように時間的分解を支援するスケーラブルフィルタリング方法を利用することもできる。
空間的ダウンサンプリングモジュール112は最高解像度を有する元ビデオシーケンスを、支援される最低解像度を有するビデオシーケンスでダウンサンプリングする。このような空間的ダウンサンプリングも従来の方法により行われる。これは多数のピクセルを一つのピクセルに減少させる過程であるため、多数のピクセルに対し所定の演算を行い一つのピクセルを作り出す。このような演算では平均演算、メジアン演算、DCTダウンサンプリングなど多様な方法が使用されえる。
以外にもウェーブレット変換により、最低解像度を有するフレームを抽出することもできるので、本発明では望ましく、ウェーブレット変換により、ビデオシーケンスをダウンサンプリングすることにする。なぜならば、本発明を動作させるためには空間的領域でのダウンサンプリングだけでなく空間的領域でのアップサンプリングも必要だが、ウェーブレット変換はこのようにダウン−アップサンプリングの過程で、他の方法に比べて、相対的に均衡をよく成しており、相対的に画質の損傷が少ないためである。
一方、基礎階層エンコーダ113は時間的および空間的に最低解像度のビデオシーケンスを低いビット率で優秀な画質をみせるコーデックによりエンコーディングする。
ここで「優秀な画質」とは同じビット率で圧縮した後復元した時、元来の映像とのわい曲が小さいことを意味する。このような画質の判断基準では主にPSNR(ピーク信号対雑音比)が使用される。
前記コーデックとしてはH.264、MPEG−4のように非ウェーブレット系列のコーデックを使うのが好ましい。基礎階層エンコーダ113でエンコーディングされた基礎階層はビットストリーム生成モジュール170に提供される。
そして、基礎階層デコーダ114はエンコーディングされた基礎階層を基礎階層エンコーダ113に対応するコーデックでデコーディングして、基礎階層を復元する。このように、エンコーディング過程後改めてデコーディング過程を介するのはスケーラブルビデオデコーダ(図13の200)端で参照フレームから原映像を復元する過程と同一に一致させることにより、より正確な映像を復元するためである。しかし、基礎階層デコーダ114は必須の要素ではなく、空間的ダウンサンプリングモジュール113によって生成された基礎階層をそのまま次の空間的アップサンプリングモジュール116に提供しても本発明が動作するには問題がない。
空間的アップサンプリングモジュール180は空間的ダウンサンプリングモジュール112に対応して、最低解像度のフレームを、支援される最高解像度を有するようにアップサンプリングする。アップサンプリング過程は従来のアップサンプリングフィルタを利用して行われる。ただし、空間的ダウンサンプリングモジュール112で望ましくウェーブレット分解を利用したため、これに対応されるようにウェーブレット基盤のアップサンプリングフィルタを使用するのが好ましいものである。
一方、時間的フィルタリングモジュール120は時間軸方向でフレームを低周波フレーム(low−pass frame)と高周波フレーム(high−pass frame)で分解することによって時間的重複性を減少させる。本発明で時間的フィルタリングモジュール120は時間的方向でフィルタリングを行うだけでなく、B−イントラモードによる差異フィルタリング(difference filtering)も行うものとする。したがって本発明での時間的フィルタリングという時間的方向のフィルタリングだけでなくB−イントラモードによるフィルタリングも含む概念として理解することができる。
このような低周波フレームは他のフレームを参照しないでエンコーディングされるフレームであり、高周波フレームは他の参照フレームからモーション推定を行い、その結果再構成された予測フレームとの差異から生成されるフレームだ。参照フレームを定める方法としては多様な方法が存在し、GOP(Group of Pictures)内またはそれ以外フレームを参照フレームとすることもできるが、参照フレームが増えるほどモーションベクタに対するビット量が増えるので通常前後2個のフレーム共に、またはそのうち一つだけを参照フレームとする場合が多い。本発明でも最大前後2個フレームを参照できるものとして説明するものであるが、これに限定される必要はない。
参照フレームを基準として、モーション推定を行う過程はモーション推定モジュール130によって行われるが、時間的フィルタリングモジュール120は必要な時ごとにモーション推定モジュール130でモーション推定を行うようにしてその結果のリターンを受けることができる。
このような時間的フィルタリング方法では、例えばMCTF(motion compensated temporal filtering)、UMCTF(unconstrained MCTF)等を使用することができる。図5はMCTF(5/3フィルタ)を利用した本発明の動作を説明する図である。ここで、一つのGOPは8個のフレームで構成されるものとし、GOP境界を越えても参照をすることができるものとする。まず、8個のフレームは時間的レベル1で、4個の低周波フレーム(L)と4個の高周波フレーム(H)に分解される。ここで、高周波フレームは自身の左右フレームのすべてを参照フレームとしたり、左右フレームのうち一つのフレームを参照フレームとすることができる。次に、低周波フレームは改めて左右の高周波フレームを利用して、自身をアップデートすることができる。
このようなアップデート過程は、低周波フレームを原フレームそのまま使用せず高周波フレームを反映してアップデートすることによって、高周波フレームに偏重されるエラーを分散させる役割をする。しかし、このようなアップデート過程は、本発明を動作するために必須の内容ではないため以下ではアップデート過程は省略して原フレームがそのまま低周波フレームとなることを形態として説明する。
次に、時間的レベル2で、時間的レベル1の4個の低周波フレームは改めて2個の低周波フレームと2個の高周波フレームに分解される。そして、最後に時間的レベル3で、時間的レベル2の2個の低周波フレームは1個の低周波フレームと1個の高周波フレームに分解される。以後最上位時間的レベルの低周波フレーム1個と残り高周波フレーム7個を符号化して伝送するようになる。
ところで、最上位時間的レベル、すなわち最低フレーム率を有するフレームに対応する区間に対しては従来の時間的フィルタリング方法とは異なった方法でフィルタリングを行う。したがって、現在GOP内の時間的レベル3で、低周波フレーム70および高周波フレーム80は本発明で提案する方法によりフィルタリングされる。
基礎階層生成モジュール110により、最高解像度でアップサンプリングされた基礎階層はすでに支援される最低フレーム率で作られているので、低周波フレーム70と高周波フレーム80に各々に対応される個数で提供されている。
低周波フレーム70は時間的方向では参照するフレームが存在しないため、低周波フレーム70とアップサンプリングされた基礎階層(B1)との差異を求める方式で、すなわちB−イントラモードでコーディングされる。そして、高周波フレーム80は左右の低周波フレームを時間的方向で参照することができるため、ブロック別に、モード選択モジュール140による所定のモード選択方法にしたがい、時間的に関連したフレームと基礎階層のうちどれを参照フレームとするのかが決定される。そして、時間的フィルタリングモジュール120により、前記ブロック別に決定された方法によりコーディングされる。このように、モード選択モジュール140でのモード選択過程に対しては図6を参照して後述する。本明細書でのブロックはマクロブロックでもありえ、マクロブロックを分割した大きさのサブブロックでもありえる。
今まで図5のように、最上位時間的レベルが3であり、GOPが8の場合を例え説明したが、本発明は最上位時間的レベルと、GOPの大きさはいかなる場合でも適用されえる。
例えば、GOPがそのまま8であるが、最上位時間的レベルは2の場合ならば、時間的レベル2に存在する4個のフレームのうち2個のLフレームは差異コーディングを、2個のHフレームはモード選択によるコーディングを行うようになる。また、時間的方向で参照フレームを定めることも図5では隣接した前後のフレームを一つずつだけ参照することができるとしたが、隣接しない前後のフレームを複数で参照する場合でも本発明が適用されえることは、ビデオコーディング分野の当業者であれば、簡単に知ることができるだろう。
モード選択モジュール140は最上位時間的レベルの高周波フレームに対し、所定の費用関数を利用し、時間的に関連したフレームと基礎階層のうち、どれを参照フレームとするのかをブロック別に選択(モード選択する)。図4ではモード選択モジュール140は時間的フィルタリングモジュール120と別個の構成要素として図示されているが、時間的フィルタリングモジュール120に含まれ構成されえる。
このモード選択方法ではR−D最適化(Rate−Distortion optimization)方法を使用することができる。もう少し具体的に図6を参照して、説明する。
図6は一実施形態として4種類モードを図式化して示したものである。まず、順方向推定モード(1)は現フレームで特定ブロックが以前フレーム(必ずしも直前フレームだけを示すものではない)のどのような部分に最もよくマッチングするのかを探した後、両位置間の変位を示すモーションベクタを求め、それに沿って時間的差分を求める。
逆方向推定モード(2)は現フレームで特定ブロックが以後フレーム(必ずしも直後フレームだけを示すものではない)のいかなる部分に最もよくマッチングするのかを探した後、両位置間の変位を示すモーションベクタを求め、それに沿って時間的差分を求める。
そして、両方向推定モード(3)は前記順方向推定モード(1)および逆方向推定モード(2)で探した二つのブロックを平均したり、加重値をおいて平均し仮想のブロックを作り、このブロックと現フレームの特定ブロックとの差異を計算して時間的フィルタリングをする方式である。したがって、両方向推定モード(3)は一つのブロック当たり二つのモーションベクタが必要になる。このような順方向、逆方向、両方向推定はすべて時間的推定(temporal estimation)のうち一つに該当する。実際にモード選択モジュール140がこのようなモーションベクタを求めるためにはモーション推定モジュール130を利用する。
一方、B−イントラモード(4)は空間的アップサンプリングモジュール116により、アップサンプリングされた基礎階層を参照フレームとし、その差異を計算する。この場合に基礎階層は現在フレームと時間的に同一なフレームであるためモーション推定過程は必要としない。本発明では時間的方向でフレーム間の差分と区分されるようにB−イントラモードでは差異という表現を使用した。
図6で、逆方向推定モードを選択する場合のエラー(mean absolute difference;MAD)をEbと、順方向(forward)推定モードを選択する場合のエラーをEfと、両方向推定モードを使用する場合のエラーをEbiと、そして、基礎階層を参照フレームとして使用する場合のエラーをEiという。そして、各々に消耗される追加ビット量をBb、Bf、Bbi、Biとすれば各々の費用関数(cost function)は次の(式1)のように定義される。ここで、Bb、Bf、Bbi、Biは各方向に対しモーションベクタ、参照フレームなどを含むモーション情報を圧縮するのに所要されるビット量を意味する。ところで、B−イントラモードはモーションベクタを使用しないためBiは非常に小さいためBiは省略しても差し支えないであろう。
Figure 2008506328
ここで、λはラグランジアン(lagrangian)計数であって、圧縮率により決定される常数値である。モード選択モジュール140は前記の4種類費用のうち最低のモードを選択することによって最上位時間的レベルの高周波フレームに対し最も適合したモードを選択することができるようになる。
注目することは、B−イントラの費用では他の費用とは異なりαというまた異なる常数を一つ付け加えている。これはB−イントラモード反映の程度を意味する常数であって、αが1ならば他の費用関数と比較して選択されるようにする場合であり、αが大きくなるほどB−イントラモードが選択されずらくなる。そして、αが小さくなるほどB−イントラモードがさらに多く選択されるようになる。極端な例として、αが0ならばB−イントラモードだけが選択されるようになり、αが非常に大きい値ならばB−イントラモードが一つも選択されなくなる。ユーザはαを調節することによってモード選択モジュール140でB−イントラモードが選択される程度を調節することができるようになる。
図7は最上位時間的レベルに存在する高周波フレームが前記費用関数にしたがい各ブロック別に異なる方式で符号化される例を示したものである。ここで一つのフレームは16個のブロックで形成されており、MBは各ブロックを示すものとする。そして、F、B、Bi、そしてBintraは各々順方向推定モード、逆方向推定モード、両方向推定モード、そしてB−イントラ推定モードでフィルタリングされることを示す。
図7でブロックMB0はCb、Cf、Cbi、およびCiを比較した結果Cfが最小値段なので順方向推定モードでフィルタリングされ、ブロックMB15はCiが最小値段なのでB−イントラモードでフィルタリングされる場合を示している。最後に、モード選択モジュール140は最上位時間的レベルに存在する高周波フレームに対して前記過程により選択されたモードに関する情報をビットストリーム生成モジュール170に提供する。
改めて図4を参照する。モーション推定モジュール130は時間的フィルタリングモジュール120またはモード選択モジュール140の呼出しを受けて、時間的フィルタリングモジュール120で決定される参照フレームを基準として現在フレームのモーション推定を行い、モーションベクタを求める。このような動き推定のために広く使用されるアルゴリズムはブロックマッチングアルゴリズムである。すなわち、与えられたブロックを参照フレームの特定探索領域内でピクセル単位で動きつつ、そのエラーが最低となる場合の変位を動きベクタとして推定するものである。モーション推定のため図7の例のように固定されたブロックを利用することもできるが、階層的可変サイズブロックマッチング法(Hierarchical Variable Size Block Matching;HVSBM)による階層的な方法を使用することもできる。モーション推定モジュール130はモーション推定結果求められるモーションベクタと参照フレーム番号などのモーション情報をビットストリーム生成モジュール170に提供する。
空間的変換モジュール150は時間的フィルタリングモジュール120によって、時間的重複性が除去されたフレームに対し、空間的スケーラビリティを支援する空間的変換法を使用し空間的重複性を除去する。このような空間的変換法ではウェーブレット変換が主に使用されている。空間的変換結果求められる計数を変換計数という。
ウェーブレット変換を使用する形態をより詳しく見れば、空間的変換モジュール150は時間的重複性が除去されたフレームに対し、ウェーブレット変換を使用し、一つのフレームを分解して低周波数サブバンドと高周波数サブバンドに区分し、各々に対するウェーブレット係数を求める。
図8は入力イメージまたはフレームをウェーブレット変換によって、サブバンドに分解する過程の例を示したもので、2段階レベルで分割したものである。ここには3つの高周波数サブバンド、すなわち水平、垂直、および対角位置のサブバンドがある。低周波数サブバンド、すなわち水平および垂直方向すべてに対して低周波数のサブバンドは「LL」と表記する。前記高周波数サブバンドは「LH」、「HL」、「HH」で表記するが、これは各々水平方向高周波数、垂直方向高周波数、そして水平および垂直方向高周波数サブバンドを意味する。そして、低周波数サブバンドは反復的にさらに分解される。括弧の中の数字はウェーブレット変換レベルを示したものである。
量子化モジュール160は空間的変換モジュール150で求めた変換計数を量子化する。量子化とは任意の実数値で表現される前記変換計数を量子化ステップで分けて、整数値だけ取った後、これを所定のインデックスでマッチングさせる作業を意味する。特に、空間的変換方法としてウェーブレット変換を利用する場合には、量子化方法として包埋量子化(embedded quantization)方法を利用する場合が多い。このような包埋量子化方法としてはEZW(Embedded Zerotrees Wavelet Algorithm)、SPIHT(Set Partitioning in Hierarchical Trees)、EZBC(Embedded ZeroBlock Coding)等がある。
ビットストリーム生成モジュール170は基礎階層エンコーダ113から提供されるエンコーディングされた基礎階層データと、量子化モジュール150により量子化された変換計数と、モード選択モジュール140により提供されるモード情報と、モーション推定モジュール130により提供されるモーション情報を無損失符号化して出力ビットストリームを生成する。このような無損失符号化方法では、算術符号化(arithmetic coding)、可変長符号化等の多様なエントロピー符号化を使用することができる。
図9は本発明の一実施形態によるビットストリーム300の概略的構成を示したものである。ビットストリーム300はエンコーディングされた基礎階層に対して無損失符号化したビットストリームの基礎階層ビットストリーム400と、時間的、空間的にスケーラビリティが支援され、量子化モジュール160から伝えられた変換計数を無損失符号化したビットストリーム、すなわち以外階層ビットストリーム500として構成される。
図10で図示するように、以外階層ビットストリーム500はシーケンスヘッダ(sequence header)フィールド510とデータフィールド520で構成されえ、データフィールド520は一つ以上のGOPフィールド530、540、550で構成される。シーケンスヘッダフィールド510にはフレームの横大きさ(2バイト)、縦大きさ(2バイト)、GOPの大きさ(1バイト)、フレーム率(1バイト)等映像の特徴を記録する。
そして、データフィールド520は映像を示すデータと、その他映像復元のために必要な情報(モーション情報、モード情報など)が記録される。
図11は各GOPフィールド510、520、550の細部構造を示したものである。GOPフィールド510、520、550はGOPヘッダ551と、時間的に他のフレームを参照せずエンコーディングされるフレーム、すなわちB−イントラモードによりコーディングされたフレームに関する情報を記録するT(0)フィールド552と、モーション情報およびモード情報が記録されるMVフィールド553と、前記他のフレームを参照して、エンコーディングされるフレームの情報を記録する「the other T」フィールド554で構成される。モーション情報にはブロックの大きさと、各ブロック別モーションベクタと、モーションベクタを求めるために参照する参照フレームの番号などが含まれる。そして、モード情報は最上位時間的レベルに存在する高周波フレームに対し順方向、逆方向、両方向推定モードとB−イントラモードのうち、どんなモードでエンコーディングされたかを表すインデックス形態で記録される。本実施形態ではモード情報がモーションベクタと共にMVフィールド553に記録されるものとしたが、これに限る必要なく別途のモード情報フィールドに記録することもできる。MVフィールド553には各々のフレーム別に細部的な、MV(1)ないしMV(n−1)フィールドが含まれる。一方、the other Tフィールド554は各フレームの映像を示すデータが記録される細部的な、T(1)ないしT(n−1)フィールドが含まれる。ここで、nはGOPの大きさを意味する。
今まではエンコーダ100で時間的フィルタリング後に空間的変換を行う場合を説明したが、これとは異なり空間的変換を行った後に時間的フィルタリングを行う方法、すなわちインバンド(in−band)方式を使用することもできる。図12は本発明によるエンコーダ190をインバンド方式で具現した例を示す図面である。インバンド方式のエンコーダ190は単に時間的フィルタリングと空間的変換の順序が変わっただけで本発明の具現には難しさがないことを当業者ならば知ることができるものである。このようにインバンド方式でエンコーディングされたビットストリームから原ビデオ映像を復元するためにはデコーダも同じようにインバンド方式、すなわち逆時間的フィルタリング後、逆空間的変換を行う方式にならなければならないだろう。
図13は本発明の一実施形態によるスケーラブルビデオデコーダ200の構成を示した図である。スケーラブルビデオデコーダ200はビットストリーム解釈モジュール210、逆量子化モジュール220、逆空間的変換モジュール230、逆時間的フィルタリングモジュール240、空間的アップサンプリングモジュール250、および基礎階層デコーダ260を含み構成される。
まず、ビットストリーム解釈モジュール210はエントロピ符号化方式の逆であって、入力されたビットストリーム300を解釈し基礎階層の情報と、以外階層の情報を分離して抽出する。ここで、基礎階層の情報は基礎階層デコーダ260に提供する。そして、その以外階層の情報のうちテクスチャ情報は逆量子化モジュール220に提供し、モーション情報およびモード情報は逆時間的フィルタリングモジュール240に提供する。
基礎階層デコーダ260はビットストリーム解釈モジュール210から提供された基礎階層の情報を所定のコーデックでデコーディングする。前記所定のコーデックとしてはエンコーディング時に使用されたコーデックに対応するコーデックを使用する。すなわち、基礎階層デコーダ260はスケーラブルビデオエンコーダ100端での基礎階層デコーダ114と同一モジュールを使用する。
空間的アップサンプリングモジュール250は基礎階層デコーダ260でデコーディングされた基礎階層のフレームを最高解像度でアップサンプリングする。エンコーダ100端での空間的ダウンサンプリングモジュール112に対応して最低解像度のフレームを最高解像度を有するようにアップサンプリングする。もし、空間的ダウンサンプリングモジュール112でウェーブレット分解を利用した場合ならば、これに対応されるようにウェーブレット基盤のアップサンプリングフィルタを使用するのが好ましいだろう。
一方、逆量子化モジュール220はビットストリーム解釈モジュール210から伝送されたテクスチャ情報を逆量子化して、変換計数を出力する。逆量子化過程はエンコーダ100端で所定のインデックスで表現して伝達した値からこれとマッチングする量子化された計数を探す過程である。インデックスと量子化計数間のマッチング関係を示すテーブルはエンコーダ100端から伝送されることもでき、あらかじめエンコーダとデコーダ間に約束されたものあることもあり得る。
逆空間的変換モジュール230は空間的変換を逆に行い、前記変換計数を空間的領域での変換計数に逆変換する。例えば、ウェーブレット方式で空間的変換された場合にはウェーブレット領域での変換計数を空間的領域での変換計数で逆変換するものだ。
逆時間的フィルタリングモジュール240は前記空間的領域での変換計数、すなわち差分イメージを逆時間的フィルタリングしてビデオシーケンスを構成するフレームを復元する。逆時間的フィルタリングのために逆時間的フィルタリングモジュール240はビットストリーム解釈モジュール210から提供されるモーションベクタとモード情報、そして空間的アップサンプリングモジュール250から提供されるアップサンプリングされた基礎階層を利用する。
デコーダ200端で逆時間的フィルタリングはエンコーダ100端での時間的フィルタリング過程の逆順に進行する。すなわち図5の例で逆時間的フィルタリング順序は時間的レベルの逆順に進行される。したがって、まず、最上位時間的レベルの低周波フレームおよび高周波フレームに対して逆フィルタリングならなければならない。例えば、図5のような場合に低周波フレーム70はB−イントラモードによりコーディングされるため、逆時間的フィルタリングモジュール240は前記低周波フレーム70と空間的アップサンプリングモジュール250によって提供されるアップサンプリングされた基礎階層を合わせることによって原フレームを復元する。そして、逆時間的フィルタリングモジュール240は高周波フレーム80に対しては、ブロック別に前記モード情報が指示するモードにしたがい逆フィルタリングする。もし、あるブロックのモード情報がB−イントラモードを示したら、時間的フィルタリングモジュール240は前記ブロックと、対応する基礎階層のフレームの領域を前記ブロックと合わせることによって原フレームのうち該当領域を復元する。そして、あるブロックのモード情報がそれ以外のモードを示したら、時間的フィルタリングモジュール240は推定方向にともなうモーション情報(参照フレーム番号、およびモーションベクタなど)を利用して、原フレームのうち該当領域を復元するだろう。
逆時間的フィルタリングモジュール240により各ブロックに該当する全体領域が復元され一つの復元されたフレームを形成し、このようなフレームが集まり全体的に一つのビデオシーケンスを成す。ただし、以上ではデコーダ端で伝達されるビットストリームが基礎階層およびそれ以外の階層の情報を共に含むものとして説明した。しかし、もしエンコーダ100からビットストリームを伝達されたプレデコーダ端で基礎階層だけを切出して、デコーダ200端に伝送した場合ならば、デコーダ端に入力されるビットストリームには基礎階層の情報だけ存在するだろう。したがって、ビットストリーム解釈モジュール210、基礎階層デコーダ260を経て、復元された基礎階層のフレームがビデオシーケンスとして出力されるだろう。
今までの説明で、「モジュール」という用語はソフトウェア構成要素またはFPGA(field−programmable gate array)またはASIC(application−specific integrated circuit)のようなハードウェア構成要素(hardware component)を意味し、モジュールはある役割を行う。しかしモジュールはソフトウェアまたはハードウェアに限定される意味ではない。モジュールはアドレッシングすることのできる保存媒体にあるように構成することもでき、一つまたはそれ以上のプロセッサーを実行させるよう構成することもできる。したがって、一例としてモジュールはソフトウェア構成要素、オブジェクト指向ソフトウェア構成要素、クラス構成要素およびタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、および変化の要素(variables)を含む。構成要素とモジュールの内で提供される機能はさらに小さい数の構成要素およびモジュールに結合したり、追加的な構成要素とモジュールにさらに分離することができる。またそれだけでなく、構成要素およびモジュールは通信システム内の一つまたはそれ以上のコンピュータを実行させるように具現され得る。
本発明を使用すれば最低ビット率、最低フレーム率では基礎階層をエンコーディングするのに使用したコーデックの性能と同一の性能を得ることができる。一方、その上位の解像度およびフレーム率では差分映像がスケーラブルビデオコーディング方法によって、効率的にコーディングされるため、低いビット率では既存方法より優秀な画質をみせ、高いビット率になるほど既存のスケーラブルビデオコーディング方法と似た性能を有するようになる。
もし、本発明のように時間的差分と基礎階層との差異のうち有利な側を選択するのではなく、単純に基礎階層との差異コーディングだけを利用するとしたら、低いビット率では優秀な画質を有しえるが高いビット率になるほど既存のスケーラブルビデオコーディング方式に比べて、はるかに低い性能を有するようになる。これは低い解像度を有する基礎階層を単純にアップサンプリングすることだけでは最高解像度の原映像を推定するのが難しいということを語っている。
したがって、本発明で提示したように最高解像度の時間的隣接フレームから予測するのがさらに有利なのか基礎階層から予測するのが有利なのかを最適に判断する方法が、ビット率に関係なく優秀な画質を有するようになるものである。
図14はMobileシーケンスでビット率に対するPSNRを比較したグラフである。本発明による方法を使用した結果は高いビット率では既存のスケーラブルビデオコーディング(SVC)方法を使用した結果と類似し、低いビット率では相当に優秀な結果を示す。この中でもα=1の場合(モードを選択する場合)はα=0の場合(差異コーディングだけする場合)に比べて、高いビット率では多少高い性能を見せ低いビット率では多少低くい性能を見せる。しかし、両者は最低ビット率(48kbps)では互いに同一な性能を示している。
以上添付された図面を参照し、本発明の実施形態を説明したが、本発明が属する技術分野で通常の知識を有する者は本発明がその技術的思想や必須の特徴を変更せずとも他の具体的な形態で実施されるということを理解することができるものである。そのため前述した実施形態はすべての面で例示的なものであり、限定的ではないことに理解しなければならない。
エンコーダ端で従来のMCTFフィルタリング過程を示した図である。 デコーダ端で従来のMCTF逆フィルタリング過程を示した図である。 従来のスケーラブルビデオコーディングシステムの全体的構成を示した図である。 本発明の一実施形態によるスケーラブルビデオエンコーダの構成を示した図である。 エンコーダ端で本発明の一実施形態による時間的フィルタリング過程を説明する図である。 本発明の一実施形態によるモードを図式化して示した図である。 最上位時間的レベルに存在する高周波フレームが費用関数にしたがい各ブロック別に他の方式で符号化される例を示した図である。 入力イメージをウェーブレット変換によって、サブバンドで分解する過程の例を示した図である。 本発明の一実施形態によるビットストリームの概略的構成を示した図である。 以外階層ビットストリームの概略的構成を示した図である。 GOPフィールドの細部構造を示した図である。 本発明の一実施形態によるエンコーダをインバンド方式で具現した例を示した図である。 本発明の一実施形態によるスケーラブルビデオデコーダの構成を示した図である。 Mibileシーケンスでビット率に対するPSNRを示したグラフである。

Claims (26)

  1. 多階層基盤のビデオコーディング方法で基礎階層を利用して第1上位階層フレームを効率的に圧縮する方法であって、
    入力された元ビデオシーケンスから前記第1上位階層フレームと同一の時間的位置を有する基礎階層フレームを生成する段階と、
    前記基礎階層フレームを上位階層フレームの解像度でアップサンプリングする段階、および
    前記第1上位階層フレームと異なった時間的位置を有する第2上位階層フレームと前記アップサンプリングされた基礎階層フレームを参照しブロック別に前記第1上位階層フレームの重複を除去する段階を含む上位階層フレームを効率的に圧縮する方法。
  2. 入力された元ビデオシーケンスに対し時間的ダウンサンプリングおよび空間的ダウンサンプリングを行う段階を含む請求項1に記載の上位階層フレームを効率的に圧縮する方法。
  3. 第1項において、前記生成する段階は、
    前記ダウンサンプリングを行った結果を所定のコーデックでエンコーディングした後デコーディングする段階を含む請求項1に記載の上位階層フレームを効率的に圧縮する方法。
  4. 前記空間的ダウンサンプリングはウェーブレット変換により行われる請求項2に記載の上位階層フレームを効率的に圧縮する方法。
  5. 前記基礎階層を生成するのに使用されるコーディング方式は低いビット率で、ウェーブレット基盤のスケーラブルビデオコーディングに比べて、相対的に優秀な画質を示すコーディング方式である請求項1に記載の上位階層フレームを効率的に圧縮する方法。
  6. 前記除去する段階は、
    前記上位フレームが低周波フレームの場合には前記アップサンプリングされた基礎階層との差異を計算してコーディングする段階、および
    前記上位フレームが高周波フレームの場合には前記上位フレームを構成するブロック別に、前記時間的予測方法と前記基礎階層を利用した予測方法のうちから、所定の費用関数が最小となる方法でコーディングする段階を含む請求項1に記載の上位階層フレームを効率的に圧縮する方法。
  7. 前記所定の費用関数は、
    逆方向推定の場合にはEb+λ×Bbによって計算され、順方向推定の場合にはEf+λ×Bfによって計算され、両方向推定の場合にはEbi+λ×Bbiによって計算されて、基礎階層を利用した予測方法の場合にはα×Eiで計算されるが、
    前記λはラグランジアン計数であり、前記Eb、Ef、Ebi、およびEiは各モードのエラーであり、前記Bb、Bf、およびBbiは各モードに対するモーション情報を圧縮するのに所要されるビット量であり、前記αは基礎階層を利用した予測方法が反映される程度を示す量の常数である請求項6に記載の上位階層フレームを効率的に圧縮する方法。
  8. 入力された元ビデオシーケンスから、基礎階層を生成する段階と、
    前記基礎階層を、時間的フィルタリングを行うフレームの解像度でアップサンプリングする段階と、
    前記フレームを構成するブロック別に、時間的予測方法と前記アップサンプリングされた基礎階層を利用した予測方法のうちから一つの方法を選択し時間的フィルタリングを行う段階と、
    前記時間的フィルタリングによって生成されるフレームに対して空間的変換を行う段階、および
    前記空間的変換によって生成される変換計数を量子化する段階を含む、ビデオエンコーディング方法。
  9. 前記生成する段階は、
    入力された元ビデオシーケンスに対し時間的ダウンサンプリングおよび空間的ダウンサンプリングを行う段階と、
    前記ダウンサンプリングを行った結果を所定のコーデックでエンコーディングした後デコーディングする段階を含む、請求項8に記載のビデオエンコーディング方法。
  10. 前記時間的フィルタリングを行う段階は、
    前記フレームのうち低周波フレームは前記アップサンプリングされた基礎階層との差異を計算しコーディングする段階と、
    前記フレーム中、高周波フレームを構成するブロック別に、前記時間的予測方法と前記基礎階層を利用した予測方法のうち、所定の費用関数が最小となる方法でコーディングする段階を含む請求項8に記載のビデオエンコーディング方法。
  11. 時間的フィルタリングされたフレームをビデオデコーダで復元する方法において、
    前記フィルタリングされたフレームが低周波フレームの場合には前記低周波フレームと基礎階層の和を求める段階と、
    前記フィルタリングされたフレームが高周波フレームの場合にはエンコーダ側から伝送されるモード情報にしたがい前記高周波フレームのブロック別に復元する段階を含む、時間的にフィルタリングされたフレームを復元する方法。
  12. 前記フィルタリングされたフレームが前記最上位以外の時間的レベルに存在するフレームの場合には時間的参照フレームを利用して復元する段階をさらに含む、請求項11に記載の時間的にフィルタリングされたフレームを復元する方法。
  13. 前記モード情報は逆方向推定モード、順方向推定モード、または両方向推定モードのうち少なくとも一つ以上の時間的推定モードと、B−イントラモードを含む、請求項11に記載の時間的にフィルタリングされたフレームを復元する方法。
  14. 前記高周波フレームのブロック別に復元する段階は、
    前記高周波フレームのブロックに対するモード情報がB−イントラモードの場合には前記ブロックと前記基礎階層の該当領域の和を求める段階、および
    前記高周波フレームのブロックに対するモード情報が前記時間的推定モードのうち1個である場合には該当推定モードに対するモーション情報にしたがい原フレームを復元する段階を含む、請求項13に記載の時間的にフィルタリングされたフレームを復元する方法。
  15. 入力された基礎階層を所定のコーデックでデコーディングする段階と、
    前記デコーディングされた基礎階層の解像度をアップサンプリングする段階と、
    前記基礎階層以外階層のテクスチャ情報を逆量子化して変換計数を出力する段階と、
    前記変換計数を空間的領域で逆変換する段階、および
    前記アップサンプリングされた基礎階層を利用して前記逆変換結果生成されるフレームから原フレームを復元する段階を含む、ビデオデコーディング方法。
  16. 前記原フレームを復元する段階は、
    前記逆変換結果生成されるフレームが低周波フレームの場合には前記低周波フレームと基礎階層の和を求める段階、および
    前記逆変換結果生成されるフレームが高周波フレームの場合にはエンコーダ側から転送されるモード情報にしたがい前記高周波フレームのブロック別に復元する段階を含む、請求項15に記載のビデオデコーディング方法。
  17. 前記モード情報は逆方向推定モード、順方向推定モード、または両方向推定モードのうち少なくとも一つ以上の時間的推定モードと、B−イントラモードを含む、請求項16に記載のビデオデコーディング方法。
  18. 前記高周波フレームのブロック別に復元する段階は、
    前記高周波フレームのブロックに対するモード情報がB−イントラモードの場合には前記ブロックと前記基礎階層の該当領域の和を求める段階、および
    前記高周波フレームのブロックに対するモード情報が前記時間的推定モードのうち1個である場合には該当推定モードに対するモーション情報にしたがい原フレームを復元する段階を含む、請求項17に記載のビデオデコーディング方法。
  19. 入力された元ビデオシーケンスから、基礎階層を生成する基礎階層生成モジュールと、
    前記基礎階層を、時間的フィルタリングを行うフレームの解像度でアップサンプリングする空間的アップサンプリングモジュールと、
    前記フレームを構成するブロック別に、時間的予測方法と前記アップサンプリングされた基礎階層を利用した予測方法のうちから一つの方法を選択し時間的フィルタリングを行う時間的フィルタリングモジュールと、
    前記時間的フィルタリングによって生成されるフレームに対し空間的変換を行う空間的変換モジュール、および
    前記空間的変換によって生成される変換計数を量子化する量子化モジュールを含む、ビデオエンコーダ。
  20. 前記基礎階層生成モジュールは、
    入力された元ビデオシーケンスに対し時間的ダウンサンプリングおよび空間的ダウンサンプリングを行うダウンサンプリングモジュールと、
    前記ダウンサンプリングを行った結果を所定のコーデックでエンコーディングする基礎階層エンコーダと、
    前記エンコーディングされた結果を前記コーデックと同じコーデックでデコーディングする基礎階層デコーダを含む、請求項19に記載のビデオエンコーダ。
  21. 前記時間的フィルタリングモジュールは、
    前記フレームのうち低周波フレームは前記アップサンプリングされた基礎階層との差異を計算して、コーディングし、
    前記フレーム中、高周波フレームを構成するブロック別に前記時間的予測方法と前記基礎階層を利用した予測方法のうち、所定の費用関数が最小になる方法でコーディングする、請求項19に記載のビデオエンコーダ。
  22. 入力された基礎階層を所定のコーデックでデコーディングする基礎階層デコーダと、
    前記デコーディングされた基礎階層の解像度をアップサンプリングする空間的アップサンプリングモジュールと、
    前記基礎階層以外階層のテクスチャ情報を逆量子化して変換計数を出力する逆量子化モジュールと、
    前記変換計数を空間的領域で逆変換する逆空間的変換モジュール、および
    前記アップサンプリングされた基礎階層を利用して前記逆変換結果生成されるフレームから原フレームを復元する逆時間的フィルタリングモジュールを含む、ビデオデコーダ。
  23. 前記逆時間的フィルタリングモジュールは
    前記逆変換結果生成されるフレームが低周波フレームの場合には前記低周波フレームと基礎階層の和を求め、
    前記逆変換結果生成されるフレームが高周波フレームの場合にはエンコーダ側から転送されるモード情報にしたがい前記高周波フレームのブロック別に復元する、請求項22に記載のビデオデコーダ。
  24. 前記モード情報は逆方向推定モード、順方向推定モード、または両方向推定モードのうち少なくとも一つ以上の時間的推定モードと、B−イントラモードを含む、請求項23に記載のビデオデコーダ。
  25. 前記逆時間的フィルタリングモジュールは
    前記高周波フレームのブロックに対するモード情報がB−イントラモードの場合には前記ブロックと前記基礎階層の該当領域の和を求め、前記高周波フレームのブロックに対するモード情報が前記時間的推定モードのうち1個である場合には該当推定モードに対するモーション情報にしたがい原フレームを復元する、請求項24に記載のビデオデコーダ。
  26. 多階層基盤のビデオコーディング方法で基礎階層を利用して第1上位階層フレームを効率的に圧縮する方法を実行するためのコンピュータで判読可能なプログラムを記録した記録媒体であって、
    入力された元ビデオシーケンスから前記第1上位階層フレームと同じ時間的位置を有する基礎階層フレームを生成する段階と、
    前記基礎階層フレームを上位階層フレームの解像度でアップサンプリングする段階、および
    前記第1上位階層フレームと異なった時間的位置を有する第2上位階層フレームと前記アップサンプリングされた基礎階層フレームを参照してブロック別に前記第1上位階層フレームの重複を除去する段階を含む記録媒体。
JP2007521391A 2004-07-15 2005-07-04 基礎階層を利用するフレーム圧縮方法、ビデオコーディング方法、フレーム復元方法、ビデオデコーディング方法、ビデオエンコーダ、ビデオデコーダ、および記録媒体 Expired - Fee Related JP5014989B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2004-0055269 2004-07-15
KR20040055269A KR100679011B1 (ko) 2004-07-15 2004-07-15 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치
PCT/KR2005/002110 WO2006006778A1 (en) 2004-07-15 2005-07-04 Scalable video coding method and apparatus using base-layer

Publications (2)

Publication Number Publication Date
JP2008506328A true JP2008506328A (ja) 2008-02-28
JP5014989B2 JP5014989B2 (ja) 2012-08-29

Family

ID=35599384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007521391A Expired - Fee Related JP5014989B2 (ja) 2004-07-15 2005-07-04 基礎階層を利用するフレーム圧縮方法、ビデオコーディング方法、フレーム復元方法、ビデオデコーディング方法、ビデオエンコーダ、ビデオデコーダ、および記録媒体

Country Status (7)

Country Link
US (1) US20060013313A1 (ja)
EP (1) EP1766998A4 (ja)
JP (1) JP5014989B2 (ja)
KR (1) KR100679011B1 (ja)
CN (2) CN1722838B (ja)
CA (1) CA2573843A1 (ja)
WO (1) WO2006006778A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200125203A (ko) * 2019-04-26 2020-11-04 재단법인 실감교류인체감응솔루션연구단 지연시간 기반의 동적 네트워크 서비스 운용 방법 및 장치

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8893207B2 (en) * 2002-12-10 2014-11-18 Ol2, Inc. System and method for compressing streaming interactive video
US7627037B2 (en) 2004-02-27 2009-12-01 Microsoft Corporation Barbell lifting for multi-layer wavelet coding
US7580461B2 (en) 2004-02-27 2009-08-25 Microsoft Corporation Barbell lifting for wavelet coding
KR20060027779A (ko) * 2004-09-23 2006-03-28 엘지전자 주식회사 영상 블록의 시간상 및 공간상 상관관계를 이용한영상신호의 엔코딩 및 디코딩 방법과 장치
EP1842377A1 (en) * 2005-01-27 2007-10-10 Samsung Electronics Co., Ltd. Multilayer video encoding/decoding method using residual re-estimation and apparatus using the same
US7956930B2 (en) 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US9332274B2 (en) 2006-07-07 2016-05-03 Microsoft Technology Licensing, Llc Spatially scalable video coding
CN102158697B (zh) * 2006-09-07 2013-10-09 Lg电子株式会社 用于解码/编码视频信号的方法及装置
US7991236B2 (en) 2006-10-16 2011-08-02 Nokia Corporation Discardable lower layer adaptations in scalable video coding
MX2009004121A (es) * 2006-10-20 2009-06-08 Nokia Corp Indicacion generica de trayectos de adaptacion para multimedia escalable.
WO2008056959A1 (en) * 2006-11-09 2008-05-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
KR100896290B1 (ko) 2006-11-17 2009-05-07 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR101465813B1 (ko) * 2006-12-20 2014-11-27 톰슨 리서치 펀딩 코포레이션 Iptv 시스템에서 로우 비트 레이트 스트림을 이용하는 비디오 데이터 손실 복원
AU2007342468B2 (en) * 2007-01-05 2011-11-24 Interdigital Vc Holdings, Inc. Hypothetical reference decoder for scalable video coding
FR2917262A1 (fr) * 2007-06-05 2008-12-12 Thomson Licensing Sas Dispositif et procede de codage d'un contenu video sous la forme d'un flux scalable.
US8750390B2 (en) 2008-01-10 2014-06-10 Microsoft Corporation Filtering and dithering as pre-processing before encoding
US8953673B2 (en) 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
US8705627B2 (en) * 2008-07-25 2014-04-22 Sony Corporation Image processing apparatus and method
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
US20110002391A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by resolution-adaptive macroblock coding
US20110002554A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by residual decimation
CN104618727B (zh) * 2009-12-10 2018-01-12 Sk电信有限公司 使用树形结构的解码方法
CN102104784A (zh) * 2010-04-28 2011-06-22 梁威 一种大数据量的像素集窗宽窗位调节方法
JP2014514833A (ja) * 2011-06-10 2014-06-19 メディアテック インコーポレイテッド スケーラブルビデオコーディングの方法及び装置
US20130077673A1 (en) * 2011-09-23 2013-03-28 Cisco Technology, Inc. Multi-processor compression system
CN102438152B (zh) * 2011-12-29 2013-06-19 中国科学技术大学 可伸缩视频编码容错传输方法、编码器、装置和系统
US20130195180A1 (en) * 2012-02-01 2013-08-01 Motorola Mobility, Inc. Encoding an image using embedded zero block coding along with a discrete cosine transformation
US20150043639A1 (en) * 2012-03-20 2015-02-12 Samsung Electronics Co., Ltd. Method and device for coding scalable video on basis of coding unit of tree structure, and method and device for decoding scalable video on basis of coding unit of tree structure
WO2013147497A1 (ko) * 2012-03-26 2013-10-03 엘지전자 주식회사 스케일러블 비디오 코딩에서 샘플 적응적 오프셋 적용 방법 및 이를 이용한 장치
JP2015518350A (ja) * 2012-04-24 2015-06-25 ヴィド スケール インコーポレイテッド Mpeg/3gpp−dashにおける滑らかなストリーム切り換えのための方法および装置
CN104471945B (zh) * 2012-07-19 2018-01-26 日本电气株式会社 小波变换编码/解码方法和装置
CN102833542B (zh) * 2012-08-09 2015-12-02 芯原微电子(北京)有限公司 一种提高可伸缩视频编码质量增强层编码速度装置和方法
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US10448032B2 (en) 2012-09-04 2019-10-15 Qualcomm Incorporated Signaling of down-sampling location information in scalable video coding
US9979960B2 (en) 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
KR102257542B1 (ko) 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US9438849B2 (en) 2012-10-17 2016-09-06 Dolby Laboratories Licensing Corporation Systems and methods for transmitting video frames
US9661340B2 (en) * 2012-10-22 2017-05-23 Microsoft Technology Licensing, Llc Band separation filtering / inverse filtering for frame packing / unpacking higher resolution chroma sampling formats
US20160005155A1 (en) * 2013-03-19 2016-01-07 Sony Corporation Image processing device and image processing method
WO2014158050A1 (en) 2013-03-28 2014-10-02 Huawei Technologies Co., Ltd. Method for determining predictor blocks for a spatially scalable video codec
US9813723B2 (en) * 2013-05-03 2017-11-07 Qualcomm Incorporated Conditionally invoking a resampling process in SHVC
US10142647B2 (en) 2014-11-13 2018-11-27 Google Llc Alternating block constrained decision mode coding
US10602187B2 (en) * 2015-11-30 2020-03-24 Intel Corporation Efficient, compatible, and scalable intra video/image coding using wavelets and HEVC coding
US9955176B2 (en) * 2015-11-30 2018-04-24 Intel Corporation Efficient and scalable intra video/image coding using wavelets and AVC, modified AVC, VPx, modified VPx, or modified HEVC coding
US10368080B2 (en) 2016-10-21 2019-07-30 Microsoft Technology Licensing, Llc Selective upsampling or refresh of chroma sample values
CN114503573A (zh) * 2019-03-20 2022-05-13 威诺瓦国际有限公司 低复杂性增强视频编码
CN110545426B (zh) * 2019-08-29 2021-04-20 西安电子科技大学 基于编码损伤修复cnn的空域可分级视频编码方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107488A (ja) * 1993-09-30 1995-04-21 Toshiba Corp 動画像符号化装置
JP2001258004A (ja) * 2000-01-05 2001-09-21 Canon Inc 画像符号化装置及び画像復号装置とその方法
JP2004507942A (ja) * 2000-08-21 2004-03-11 ノキア コーポレイション ビデオ符号化方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0336978A (ja) * 1989-06-30 1991-02-18 Matsushita Electric Ind Co Ltd モータ速度制御装置
US6510177B1 (en) * 2000-03-24 2003-01-21 Microsoft Corporation System and method for layered video coding enhancement
US6504872B1 (en) * 2000-07-28 2003-01-07 Zenith Electronics Corporation Down-conversion decoder for interlaced video
US6961383B1 (en) * 2000-11-22 2005-11-01 At&T Corp. Scalable video encoder/decoder with drift control
US6873655B2 (en) 2001-01-09 2005-03-29 Thomson Licensing A.A. Codec system and method for spatially scalable video data
CN1253008C (zh) * 2001-10-26 2006-04-19 皇家飞利浦电子股份有限公司 空间可分级压缩的方法和设备
US7627037B2 (en) * 2004-02-27 2009-12-01 Microsoft Corporation Barbell lifting for multi-layer wavelet coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07107488A (ja) * 1993-09-30 1995-04-21 Toshiba Corp 動画像符号化装置
JP2001258004A (ja) * 2000-01-05 2001-09-21 Canon Inc 画像符号化装置及び画像復号装置とその方法
JP2004507942A (ja) * 2000-08-21 2004-03-11 ノキア コーポレイション ビデオ符号化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6009062604, Heiko Schwarz, and others, "Subband Extension of H.264/AVC", Joint Video Team (JVT) of ISO/IEC MPEG & ITU−T VCEG 11th Meeting [JVT−K023], 200403, p.1,32−34 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200125203A (ko) * 2019-04-26 2020-11-04 재단법인 실감교류인체감응솔루션연구단 지연시간 기반의 동적 네트워크 서비스 운용 방법 및 장치
KR102179547B1 (ko) * 2019-04-26 2020-11-17 재단법인 실감교류인체감응솔루션연구단 지연시간 기반의 동적 네트워크 서비스 운용 방법 및 장치

Also Published As

Publication number Publication date
CN1722838B (zh) 2010-08-11
EP1766998A1 (en) 2007-03-28
JP5014989B2 (ja) 2012-08-29
WO2006006778A1 (en) 2006-01-19
CN101820541A (zh) 2010-09-01
US20060013313A1 (en) 2006-01-19
EP1766998A4 (en) 2010-04-21
CN1722838A (zh) 2006-01-18
CA2573843A1 (en) 2006-01-19
KR100679011B1 (ko) 2007-02-05
KR20060006328A (ko) 2006-01-19

Similar Documents

Publication Publication Date Title
JP5014989B2 (ja) 基礎階層を利用するフレーム圧縮方法、ビデオコーディング方法、フレーム復元方法、ビデオデコーディング方法、ビデオエンコーダ、ビデオデコーダ、および記録媒体
KR100621581B1 (ko) 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치
US8116578B2 (en) Method and apparatus for effectively compressing motion vectors in video coder based on multi-layer
KR100631777B1 (ko) 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
KR100703724B1 (ko) 다 계층 기반으로 코딩된 스케일러블 비트스트림의비트율을 조절하는 장치 및 방법
KR100664928B1 (ko) 비디오 코딩 방법 및 장치
JP4891234B2 (ja) グリッド動き推定/補償を用いたスケーラブルビデオ符号化
US20050226334A1 (en) Method and apparatus for implementing motion scalability
US20060013311A1 (en) Video decoding method using smoothing filter and video decoder therefor
EP1659797A2 (en) Method and apparatus for compressing motion vectors in video coder based on multi-layer
US20060013312A1 (en) Method and apparatus for scalable video coding and decoding
JP2008515328A (ja) 階層間フィルタリングを利用したビデオコーディングおよびデコーディング方法と、ビデオエンコーダおよびデコーダ
KR100703751B1 (ko) 가상 영역의 영상을 참조하여 인코딩 및 디코딩 하는 방법및 장치
EP1730967A1 (en) Method and apparatus for effectively compressing motion vectors in multi-layer structure

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101008

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101025

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees