JP5175303B2 - スケーラブルビデオコーディング用の適応アップサンプリング - Google Patents

スケーラブルビデオコーディング用の適応アップサンプリング Download PDF

Info

Publication number
JP5175303B2
JP5175303B2 JP2009545649A JP2009545649A JP5175303B2 JP 5175303 B2 JP5175303 B2 JP 5175303B2 JP 2009545649 A JP2009545649 A JP 2009545649A JP 2009545649 A JP2009545649 A JP 2009545649A JP 5175303 B2 JP5175303 B2 JP 5175303B2
Authority
JP
Japan
Prior art keywords
video data
base layer
layer video
upsampled
enhancement layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009545649A
Other languages
English (en)
Other versions
JP2010516199A (ja
Inventor
イエ、ヤン
バオ、イリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2010516199A publication Critical patent/JP2010516199A/ja
Application granted granted Critical
Publication of JP5175303B2 publication Critical patent/JP5175303B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本出願は、2007年1月9日に出願された米国仮出願第60/884,099号および2007年2月8日に出願された米国仮出願第60/888,912号の利益を主張するものである。両仮出願の内容全体が参照により本明細書に組み込まれる。
本開示は、デジタルビデオコーディングに関し、より詳細には、空間スケーラビリティを与えるスケーラブルビデオコーディング(SVC)技法に関する。
デジタルビデオ機能は、デジタルテレビ、デジタル直接放送システム、無線通信デバイス、無線放送システム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、ビデオゲームデバイス、ビデオゲームコンソール、セルラまたは衛星無線電話などを含む、広範囲にわたるデバイスに組み込むことができる。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.261、H.263またはH.264/MPEG−4,Part10,Advanced Video Coding(AVC)規格によって定義された技法など、ブロックベースのビデオ圧縮技法を実装して、デジタルビデオをより効率的に送信および受信することができる。ビデオ圧縮技法では、ビデオシーケンスに固有の冗長性を低減または除去するために空間的予測および時間的予測を実行する。
空間的予測は、所与のビデオフレーム内の近接するビデオブロック間の冗長性を低減する。動き推定および動き補償としても知られる時間的予測は、ビデオシーケンスの過去および/または将来のビデオフレーム内のビデオブロック間の時間的冗長性を低減する。時間的予測の場合、ビデオ符号器は、動き推定を実行して、2つ以上の隣接フレーム間でビデオブロックを一致させる動作を追跡する。動きベクトルは、1つまたは複数の基準フレームにおける対応する予測ビデオブロックに対するビデオブロックの変位を示す。動き補償は、動きベクトルを使用して、基準フレームから予測ビデオブロックを特定する。予測ビデオブロックを元のビデオブロックから減算することによって、残差ビデオブロックを形成してコーディングする。残差ビデオブロックは動きベクトルとともにビデオ復号器に送ることができ、復号器は、この情報を使用して、元のビデオブロックまたは元のビデオブロックの近似物を再構成することができる。ビデオ符号器は、変換、量子化およびエントロピーコーディング処理を利用して、残差ブロックに関連するビットレートをさらに低減することができる。
ビデオコーディングの中には、ビデオデータの無線通信に特に望ましいスケーラブルコーディング技法を使用するものがある。一般に、スケーラブルビデオコーディング(SVC)とは、ビデオデータがベースレイヤおよび1つまたは複数のエンハンスメントレイヤによって表されるビデオコーディングを指す。SVCの場合、ベースレイヤは一般に、基本の空間的、時間的および/または信号対雑音比(SNR)レベルでビデオデータを搬送する。1つまたは複数のエンハンスメントレイヤは、追加のビデオデータを搬送して、より高い空間的、時間的および/またはSNRレベルをサポートする。
空間スケーラビリティの場合、エンハンスメントレイヤはベースレイヤのフレームに空間解像度を追加する。空間スケーラビリティをサポートするSVCシステムでは、レイヤ間予測を使用して、エンハンスメントレイヤを伝達するために必要なデータ量を低減することができる。レイヤ間予測では、動き推定および動き補償と同様の予測技法を使用してエンハンスメントレイヤビデオブロックをコーディングすることができる。特に、ベースレイヤ中の基準ブロックを使用してエンハンスメントレイヤのビデオ残差データブロックをコーディングすることができる。ただし、ベースレイヤとエンハンスメントレイヤとでは空間解像度が異なる。したがって、ベースレイヤビデオデータをエンハンスメントレイヤビデオデータの空間解像度にアップサンプリングして、例えば、エンハンスメントレイヤ残差データを生成するための基準ブロックを形成することができる。
概して、本開示では、空間スケーラビリティを求めてエンハンスメントレイヤビデオデータをコーディングするためにベースレイヤビデオデータをアップサンプリングする適応的技法について説明する。例えば、ベースレイヤビデオデータ(例えば、残差のベースレイヤビデオブロック)はより高い解像度にアップサンプリングでき、アップサンプリングデータはエンハンスメントレイヤビデオデータをコーディングするために使用できる。アップサンプリング処理の一部として、本開示の技法は、補間によるアップサンプリングが好ましい状態、およびいわゆる「最近隣」複製技法によるアップサンプリングが好ましい他の状況を識別する。したがって、エンハンスメントレイヤのデータをコーディングするために、補間および最近隣複製技法は、適応的にベースレイヤのデータのアップサンプリングに使用できる。
本開示のいくつかの態様によれば、補間または最近隣複製のいずれも、アップサンプリングデータを定義するために使用でき、アップサンプリングデータはエンハンスメントレイヤビデオデータのコーディングにおいて基準ブロックとして使用できる。特に、補間を実行すべきか、最近隣複製を実行すべきかの決定は、アップサンプリング画素がエンハンスメントレイヤ中のエッジ画素位置に対応するかどうかに基づく。アップサンプリングのために補間すべきか、最近隣複製を使用すべきかの決定においてベースレイヤの画素位置のみを考慮する代わりに、本開示に記載の技法では、エンハンスメントレイヤ中のブロック境界に対するアップサンプリング画素位置を考慮することができる。エンハンスメントレイヤのブロック境界はベースレイヤのブロック境界とは異なることがある。
一実施例では、本開示は、空間スケーラビリティを用いてビデオデータをコーディングする方法を提供する。本方法は、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成することと、アップサンプリングビデオデータに基づいてエンハンスメントレイヤビデオデータをコーディングすることとを備え、アップサンプリングビデオデータを生成することは、ベースレイヤビデオデータで定義される異なるベースレイヤビデオブロック間の位置に対応するアップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することを含む。
別の実施例では、本開示は、空間スケーラビリティを用いてビデオデータをコーディングする装置であって、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成し、アップサンプリングビデオデータに基づいてエンハンスメントレイヤビデオデータをコーディングするように構成され、ベースレイヤビデオデータで定義される異なるベースレイヤビデオブロック間の位置に対応するアップサンプリングビデオデータの1つまたは複数の画素位置の値を補間する装置を提供する。
別の実施例では、本開示は、空間スケーラビリティを用いてビデオデータをコーディングするデバイスであって、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成するための手段と、アップサンプリングビデオデータに基づいてエンハンスメントレイヤビデオデータをコーディングするための手段とを備え、アップサンプリングビデオデータを生成するための手段は、ベースレイヤビデオデータで定義される異なるベースレイヤビデオブロック間の位置に対応するアップサンプリングビデオデータの1つまたは複数の画素位置の値を補間するための手段を含む、デバイスを提供する。
本開示に記載の技法は、ハードウェア、ソフトウェア、ファームウェア、またはその任意の組合せで実施することができる。ソフトウェアで実施される場合、ソフトウェアは、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはデジタル信号プロセッサ(DSP)など、プロセッサで実行できる。本技法を実行するソフトウェアは、初めにコンピュータ可読媒体に格納し、プロセッサにロードして実行することができる。
したがって、本開示はまた、プロセッサでの実行時に空間スケーラビリティを用いてビデオデータをコーディングすることをプロセッサに行わせる命令を備えるコンピュータ可読媒体であって、命令は、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成することと、アップサンプリングビデオデータに基づいてエンハンスメントレイヤビデオデータをコーディングすることとをプロセッサに行わせ、アップサンプリングビデオデータを生成することは、ベースレイヤビデオデータで定義される異なるベースレイヤビデオブロック間の位置に対応するアップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することを含む、コンピュータ可読媒体を企図する。
他の場合、本開示は、集積回路、チップセット、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、論理回路、またはそれらの様々な組合せなど、本明細書に記載の1つまたは複数の技法を実施するように構成された回路を対象とすることができる。
本開示の1つまたは複数の態様の詳細を添付の図面および以下の説明において示す。本開示に記載の技法の他の特徴、目的、および利点は、これらの説明および図面、ならびに特許請求の範囲から明らかになろう。
本明細書に記載のコーディング技法を符号化および/または復号処理の一部として実施できるビデオ符号化および復号システムを示す例示的なブロック図。 本開示に合致するビデオ符号器の例を示すブロック図。 本開示に合致するビデオ復号器の例を示すブロック図。 ベースレイヤからエンハンスメントレイヤへのアップサンプリングを示す概念図。 ベースレイヤからエンハンスメントレイヤへのアップサンプリングを示す概念図。 本開示に従って使用できるアップサンプリング技法を示す概念図。 本開示に従って使用できるアップサンプリング技法を示す概念図。 本開示に従って使用できるアップサンプリング技法を示す概念図。 本開示に合致する技法を示す流れ図。
本開示では、スケーラブルビデオコーディング(SVC)方式においてエンハンスメントレイヤビデオブロックをコーディング(すなわち、符号化または復号)する際に有用なアップサンプリング技法について説明する。空間スケーラビリティをサポートするSVC方式では、ベースレイヤビデオデータ(例えば、ベースレイヤの残差ビデオブロック)をより高い解像度にアップサンプリングすることができ、より高い解像度のアップサンプリングデータはエンハンスメントレイヤビデオデータ(例えば、エンハンスメントレイヤの残差ビデオブロック)をコーディングするために使用することができる。特に、アップサンプリングデータは、エンハンスメントレイヤビデオデータをベースレイヤに対してコーディングする際の基準データとして使用される。すなわち、ベースレイヤビデオデータはエンハンスメントレイヤビデオデータの空間解像度にアップサンプリングされ、得られたアップサンプリングデータはエンハンスメントレイヤビデオデータをコーディングするために使用される。
このアップサンプリング処理の一部として、本開示の技法では、補間によるアップサンプリングが好ましい状態と、いわゆる「最近隣」複製技法によるアップサンプリングが好ましい他の状態とを識別する。補間では、アップサンプリング値の重み付き平均を生成することができ、重み付き平均はベースレイヤの2つ以上の画素値の間で定義される。最近隣技法の場合、アップサンプリング値は、アップサンプリング画素位置に最も近い空間的近傍にあるベースレイヤ内の画素位置の値として定義される。本開示によれば、アップサンプリングの一部の特定の条件には補間、および他の条件には最近隣複製を使用することによって、エンハンスメントレイヤビデオブロックのコーディングを改善することができる。
補間または最近隣複製のいずれかを使用して、エンハンスメントレイヤの空間解像度でアップサンプリングデータを定義することができる。アップサンプリングデータはベースレイヤのデータから(例えば、ベースレイヤでコーディングされた残差ビデオブロックから)アップサンプリングできる。そのアップサンプリングデータは、エンハンスメントレイヤのデータをコーディングする際に(例えば、エンハンスメントレイヤの残差ビデオブロックをコーディングする際に)基準として使用できるブロックを形成することができる。アップサンプリング処理中に補間を実行すべきか、最近隣複製を実行すべきかの決定は、アップサンプリング画素値がエンハンスメントレイヤのエッジ画素位置に対応するかどうかに基づく。これは、一般に補間すべきか、最近隣複製を使用すべきかを決定する際にベースレイヤの画素位置のみを考慮する従来のアップサンプリング技法とは対照的である。
例えば、従来のアップサンプリング技法では、補間に使用されるベースレイヤの2つの画素がベースレイヤビデオブロックのエッジに対応しない場合のみ、アップサンプリング画素の補間を実行することができる。本開示では、「エッジ」という用語は、ビデオブロックのエッジに対応する画素位置を指し、「内部」という用語は、ビデオブロックのエッジに対応しない画素位置を指す。ビデオブロックは、ビデオ符号器復号器(CODEC)で使用されるブロック変換を指すことがある。H.264/AVCの例として、ビデオブロックは4×4または8×8のサイズが可能である。ただし、エンハンスメントレイヤのブロック境界はベースレイヤのブロック境界とは異なることがある。本開示によれば、補間を実行すべきかどうかの決定は、アップサンプリングすべき画素値がエンハンスメントレイヤ中のエッジ画素位置に対応するかどうかに依存する。
補間に使用されるベースレイヤの2つの画素がベースレイヤの2つの隣接ビデオブロックのエッジに対応する場合、アップサンプリング値はベースレイヤの2つの隣接ビデオブロックの間に位置することができる。この場合、従来の技法ではアップサンプリングに最近隣複製技法を使用する。ベースレイヤの異なるビデオブロックが量子化の異なるレベルでコーディングされていることがあるので、この場合、補間は慣習的に回避される。最近隣複製の場合、アップサンプリング値は、アップサンプリング画素位置に最も近い空間的近傍にあるベースレイヤの画素位置の値として定義することができる。
本開示によれば、補間は、アップサンプリングレイヤ値がベースレイヤの2つのビデオブロックの間に位置するいくつかのコンテキストで実行できる。アップサンプリング値自体がエンハンスメントレイヤ内のエッジ画素位置と関連付けられない場合、最近隣複製よりも補間の方が好ましいことがある。この場合、エンハンスメントレイヤのデブロックフィルタリングは、おそらくビデオフレーム再生におけるブロッキネスアーチファクトに対処しない。したがって、ベースレイヤの異なるビデオブロックが量子化の異なるレベルでコーディングされている場合でも、補間の方が好ましいことがある。アップサンプリング値自体がエンハンスメントレイヤ内のエッジ画素位置と関連付けられ、アップサンプリング値がベースレイヤの2つのビデオブロックの間に位置する場合は、本開示に従って最近隣複製を使用することができる。この場合、エンハンスメントレイヤのデブロックフィルタリングはエンハンスメントレイヤのブロッキネスアーチファクトに対処することになり、ベースレイヤビデオブロックの量子化レベルが異なることによる不十分な補間のリスクがこのコンテキストにおける補間の潜在的恩恵を上回ることがある。さらに、補間すべきか、最近隣複製を使用すべきかの決定は、ベースレイヤの2つのビデオブロックが異なるコーディングモード(例えば、イントラコーディングモードまたはインターコーディングモード)によってコーディングされたかどうかにも基づく。例えば、ベースレイヤの2つのビデオブロックが異なるコーディングモードによってコーディングされた場合、最近隣複製が使用でき、補間は回避される。さらに、ベースレイヤのコーディングブロック境界にわたる信号不連続性の問題をさらに緩和するために、アップサンプリングの前または後に任意の適応ローパスフィルタを適用することができる。
説明を単純かつ容易にするために、本開示では、補間および最近隣複製技法を概して一次元で説明するが、最近隣複製技法は一般に水平次元と垂直次元の両方に適用できる。二次元の補間技法または二次元の最近隣技法の場合、補間または最近隣複製は、まず一方の次元で使用され、次いで他方の次元で使用されることになる。
図1は、ビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、通信チャネル15を介して符号化ビデオを受信デバイス16に送信するソースデバイス12を含む。ソースデバイス12は、ビデオソース20、ビデオ符号器22および変調器/送信器24を含むことができる。受信デバイス16は、受信器/復調器26、ビデオ復号器28およびディスプレイデバイス30を含むことができる。システム10は、本明細書で説明するように、SVC方式のエンハンスメントレイヤのビデオ情報の符号化および復号の間に、適応アップサンプリング技法を適用するように構成できる。符号化および復号を本明細書ではより広くコーディングと呼ぶ。
図1の例では、通信チャネル15は、無線周波数(RF)スペクトルまたは1つまたは複数の物理的な送信経路など、無線または有線の通信媒体、あるいは無線および有線の媒体の組合せを備えることができる。通信チャネル15は、ローカルエリアネットワーク、広域ネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースのネットワークの一部をなすことができる。通信チャネル15は概して、ビデオデータをソースデバイス12から受信デバイス16に送信するのに好適な通信媒体または様々な通信媒体の集合体を表す。
ソースデバイス12は、受信デバイス16に送信するためのコーディングされたビデオデータを生成する。ただし、場合によっては、デバイス12、16は、ほぼ対称に動作することができる。例えば、デバイス12、16の各々は、ビデオ符号化および復号構成要素を含むことができる。したがって、システム10は、例えばビデオストリーミング、ビデオ放送またはビデオ電話通信のためのビデオデバイス12とビデオデバイス16の間の一方向または双方向のビデオ送信をサポートすることができる。
ソースデバイス12のビデオソース20は、ビデオカメラ、予め取り込まれたビデオを含むビデオアーカイブ、またはビデオコンテンツプロバイダからのビデオフィードなど、ビデオキャプチャデバイスを含むことができる。さらなる代替として、ビデオソース20はソースビデオとしてのコンピュータグラフィックベースのデータ、またはライブビデオとコンピュータ生成ビデオの組合せを生成することができる。場合によっては、ビデオソース20がビデオカメラの場合、ソースデバイス12および受信デバイス16はいわゆるカメラ付き携帯電話機またはテレビ電話を形成することができる。いずれの場合も、取り込まれたビデオ、予め取り込まれたビデオ、コンピュータ生成ビデオは、変調器/送信器22、通信チャネル15および受信器/復調器26を介して、ビデオソースデバイス12からビデオ受信デバイス16のビデオ復号器28に送信するためにビデオ符号器22によって符号化できる。
ビデオ符号化および復号処理は、本明細書で説明するように、補間および最近隣複製を使用する適応アップサンプリング技法を実装して、エンハンスメントレイヤのコーディング処理を改善することができる。ディスプレイデバイス30は、復号ビデオデータをユーザに対して表示し、陰極線管、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイまたは別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備えることができる。空間スケーラビリティによって、ビデオ復号器は、SVCビットストリームからエンハンスメントレイヤのビットストリームを復号することにより、高度な空間解像度、例えば、QCIF(Quarter common intermediate format、176×144の画像解像度)ではなくCIF(Common intermediate format、352×288の画像解像度)のビデオ信号を再構成および表示することができる。
ビデオ符号器22およびビデオ復号器28は、空間スケーラビリティのためのスケーラブルビデオコーディング(SVC)をサポートするように構成できる。さらに、時間的および/または信号対雑音比(SNR)スケーラビリティもサポートできるが、本開示の技法はこの点に限定されない。一部の態様では、ビデオ符号器22およびビデオ復号器28は、SVCのための微細粒度SNRスケーラビリティ(fine granularity SNR scalability)(FGS)コーディングをサポートするように構成できる。符号器22および復号器28は、ベースレイヤおよび1つまたは複数のスケーラブルエンハンスメントレイヤの符号化、送信および復号をサポートすることによって、様々な程度のスケーラビリティをサポートすることができる。スケーラブルビデオコーディングでは、ベースレイヤは、基準となる空間的、時間的、またはSNRレベルでビデオデータを搬送する。1つまたは複数のエンハンスメントレイヤは追加データを搬送して、より高い空間的、時間的および/またはSNRレベルをサポートする。ベースレイヤは、エンハンスメントレイヤの送信よりも信頼できる方法で送信できる。例えば、変調信号の最も信頼できる部分はベースレイヤを送信するために使用でき、変調信号のあまり信頼できない部分はエンハンスメントレイヤを送信するために使用できる。
SVCをサポートするために、ビデオ符号器22はベースレイヤ符号器32およびエンハンスメントレイヤ符号器34を含み、それぞれベースレイヤおよびエンハンスメントレイヤの符号化を実行することができる。場合によっては、複数のエンハンスメントレイヤをサポートすることができ、その場合、ビデオエンハンスメントの詳細なレベルを漸進的にコーディングするために複数のエンハンスメントレイヤ符号器を与えることができる。アップサンプリングデータを使用してエンハンスメントレイヤのデータをコーディングすることができるように、ベースレイヤのデータをエンハンスメントレイヤビデオデータの空間解像度にアップサンプリングする本開示の技法は、エンハンスメントレイヤ符号器34によって実行することができる。
ビデオ復号器28は、ベースレイヤとエンハンスメントレイヤの両方に関連付けられたビデオブロックを復号する複合ベース/エンハンスメント復号器を備えることができ、その復号ビデオを組み合わせて、ビデオシーケンスのフレームを再構成する。復号側では、アップサンプリングデータを使用してエンハンスメントレイヤのデータをコーディングすることができるように、ベースレイヤのデータをエンハンスメントレイヤビデオデータの空間解像度にアップサンプリングする本開示の技法は、ビデオ符号器28によって実行することができる。ディスプレイデバイス30は、復号ビデオシーケンスを受信し、そのビデオシーケンスをユーザに提示する。
ビデオ符号器22およびビデオ復号器28は、MPEG−2、MPEG−4、ITU−T H.263またはITU−T H.264/MPEG−4,Part10,Advanced Video Coding(AVC)など、ビデオ圧縮規格に従って動作することができる。図1には示されていないが、一部の態様では、ビデオ符号器22およびビデオ復号器28はそれぞれオーディオ符号器および復号器と統合でき、適切なMUX−DEMUXユニットまたは他のハードウェアおよびソフトウェアを含み、共通のデータストリームまたは別々のデータストリーム中のオーディオとビデオ両方の符号化を処理することができる。適用可能な場合、MUX−DEMUXユニットはITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)など他のプロトコルに準拠することができる。
H.264/MPEG−4(AVC)規格は、合同ビデオチーム(JVT)として知られる共同パートナーシップの成果として、ISO/IECのムービングピクチャエキスパーツグループ(MPEG)とともにITU−Tのビデオコーディングエキスパーツグループ(VCEG)によって公式化された。一部の態様では、本開示に記載の技法は、一般にH.264規格に従うデバイスに適用することができる。H.264規格は、ITU−T勧告H.264「Advanced Video Coding for Generic Audiovisual Services」(ITU−T研究グループ、2005年3月)に記載されており、本明細書ではH.264規格またはH.264仕様、あるいはH.264/AVC規格または仕様と称することがある。
合同ビデオチーム(JVT)はH.264/MPEG−4 AVCへのスケーラブルビデオコーディング(SVC)拡張の取り組みを続けている。例えば、JVTによって作成された合同スケーラブルビデオモデル(JSVM)はスケーラブルビデオで使用するツールを実装しており、本開示に記載の様々なコーディングタスクのためにシステム10内で使用することができる。微細粒度SNRスケーラビリティ(FGS)コーディングに関する詳細情報は、合同草案(Joint Draft)文書、特にSVC Amendment(改定2)の合同草案8(JD8)、Thomas Wiegand、Gary Sullivan、Julien Reichel、Heiko SchwarzおよびMathias Wienの「Joint Draft 8 of SVC Amendment (revision 2)」(JVT−U201、2006年10月、中国杭州)に出ている。また、本明細書に記載の技法の一実装形態のさらなる詳細は、2007年4月に米国カリフォルニア州サンノゼでの第23回会議においてYan YeおよびYiliang BaoによってISO/IEC MPEG & ITU−T VCEG(ISO/IEC JTC1/SC29/WG11およびITU−T SG16 Q.6)の合同ビデオチーム(JVT)に提出された提案文書JVT−W117、および2007年1月にモロッコのマラケシュでの第22回会議においてYan YeおよびYiliang BaoによってJVTに提出された提案文書JVT−V115に出ている。
一部の態様では、ビデオ放送に関して、本開示に記載の技法を、フォワードリンクオンリー(Forward Link Only)(FLO)エアインタフェース仕様、Technical Standard TIA-1099(「FLO Specification」)として発表される「Forward Link Only Air Interface Specification for Terrestrial Mobile Multimedia Multicast」を使用して、テレストリアルモバイルマルチメディアマルチキャスト(terrestrial mobile multimedia multicast)(TM3)システムでリアルタイムビデオサービスを配信するための拡張H.264ビデオコーディングに適用することができる。すなわち、通信チャネル15は、FLO仕様などに従って無線ビデオ情報を放送するために使用される無線情報チャネルを備えることができる。FLO仕様は、ビットストリームシンタクスおよび意味を定義し、FLOエアインタフェースに適した処理を復号する例を含む。あるいは、DVB−H(digital video broadcast-handheld)、ISDB−T(integrated services digital broadcast-terrestrial)またはDMB(digital media broadcast)など、他の規格に従ってビデオを放送することができる。
したがって、ソースデバイス12は、モバイル無線端末、ビデオストリーミングサーバ、またはビデオ放送サーバでよい。ただし、本開示に記載の技法は、特定のタイプの放送、マルチキャスト、またはポイントツーポイントシステムに限定されない。放送の場合、ソースデバイス12はいくつかのチャネルのビデオデータを複数の受信デバイスに放送することができ、これらデバイスの各々は図1の受信デバイス16と同様でよい。一例として、受信デバイス16は、一般にセルラ無線電話と呼ばれるモバイルハンドセットなど、無線通信デバイスを備えることができる。
ビデオ符号器22およびビデオ復号器28はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、個別ロジック、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せとして実装できる。ビデオ符号器22およびビデオ復号器28のそれぞれを1つまたは複数の符号器または復号器中に含めることができ、そのいずれも複合符号器/復号器(CODEC)の一部としてそれぞれモバイルデバイス、加入者デバイス、放送デバイス、サーバなどに統合することができる。さらに、ソースデバイス12および受信デバイス16はそれぞれ、符号化ビデオの送信および受信に適切な変調、復調、周波数変換、フィルタリングおよび増幅器構成要素を含むことができ、適用可能な場合は無線通信をサポートするのに十分な無線周波数(RF)無線構成要素およびアンテナを含むことができる。ただし、説明を容易にするために、図1では、そのような構成要素はソースデバイス12の変調器/送信器24および受信デバイス16の受信器/復調器26であるとして要約されている。
ビデオシーケンスは一連のビデオフレームを含む。ビデオ符号器22は、ビデオデータを符号化するために個々のビデオフレーム内の画素のブロック上で動作する。ビデオブロックは、サイズを固定することも変更することもでき、指定のコーディング規格に応じてサイズが異なることがある。それぞれのビデオフレームは一連のスライスに分割することができる。各スライスは一連のマクロブロックを含むことができ、それらはサブブロック中に配置することができる。一例として、ITU−T H.264規格は、輝度(luma)コンポーネントでは16×16、8×8、4×4および色(chroma)コンポーネントでは8×8など、様々なブロックサイズのイントラ予測、ならびに輝度コンポーネントでは16×16、16×8、8×16、8×8、8×4、4×8、4×4および色コンポーネントでは対応するスケーリングされたサイズなど、様々なブロックサイズのインター予測をサポートする。
ビデオブロックは、小さいほどより良い解像度が得られ、より高い詳細レベルを含むビデオフレームの位置に使用することができる。一般に、マクロブロック(MB)および様々なサブブロックを、全般的にビデオブロックと呼ぶことができる。さらに、スライスは、MBおよび/またはサブブロックなど一連のビデオブロックであると考えることができる。各スライスは、単独で復号可能な単位でよい。予測の後に、8×8残差ブロックまたは4×4残差ブロックの変換を実行することができ、イントラ16×16予測モードが使用される場合は、色コンポーネントまたは輝度コンポーネント用の4×4ブロックのDC係数に追加の変換を適用することができる。
イントラまたはインターベースの予測コーディングに続いて、送信されたビットストリームに追加のコーディング技法を適用することができる。これらの追加のコーディング技法は、H.264/AVCで使用される4×4または8×8整数変換または離散コサイン変換(discrete cosine transformation)DCTなど、変換技法、および可変長コーディング(VLC)、ハフマンコーディングおよび/またはランレングスコーディングなど、エントロピーコーディングを含むことができる。
本開示の技法によれば、アップサンプリング技法を使用して、エンハンスメントレイヤビデオデータのコーディング(すなわち、符号化または復号)で使用するアップサンプリングビデオデータを生成する。ベースレイヤビデオデータを、対応するエンハンスメントレイヤビデオブロックの空間解像度にアップサンプリングすることができ、そのアップサンプリングデータは、エンハンスメントレイヤビデオデータのコーディングにおいて基準として使用することができる。このアップサンプリング処理の一部として、本開示の技法では、補間技法が好ましい状況と、いわゆる「最近隣」複製技法が好ましい他の状況とを識別する。ここでも、補間では、アップサンプリング値の重み付き平均を生成することができ、重み付き平均はベースレイヤの2つ以上の値の間で定義される。最近隣複製の場合、アップサンプリングレイヤ値は、アップサンプリング画素位置に最も近い空間的近傍にあるベースレイヤの画素位置の値として定義される。アップサンプリングの特定のシナリオには補間を使用し、他のシナリオには最近隣複製を使用することによって、エンハンスメントレイヤビデオブロックのコーディングを改善することができる。
アップサンプリングはブロック境界を変更することができる。例えば、ベースレイヤおよびエンハンスメントレイヤがそれぞれ4×4画素ビデオブロックを定義する場合、より多くの画素を定義するためにエンハンスメントレイヤの空間解像度に従ってベースレイヤをアップサンプリングした結果、ベースレイヤのブロック境界がアップサンプリングデータの境界と異なることになる。補間または最近隣技法に関する決定が、アップサンプリング値がエンハンスメントレイヤのエッジ画素位置(すなわち、エンハンスメントレイヤのブロック境界)に対応するかどうか、またそのような位置がベースレイヤのブロック境界間の位置に対応するかどうかに基づくことができるように、本観測を利用することができる。
符号器22および復号器28は、本明細書に記載のアップサンプリング技法をそれぞれ実行する相補的方法を実行することができる。符号器22はアップサンプリングを使用してエンハンスメントレイヤ情報を符号化することができ、復号器28は同じアップサンプリング処理を使用してエンハンスメントレイヤ情報を復号することができる。コーディングという用語は一般に符号化または復号のいずれかを指す。
図2は、ベースレイヤビデオデータをエンハンスメントレイヤビデオデータに関連する空間解像度にアップサンプリングするアップサンプラ45を含むビデオ符号器50の例を示すブロック図である。アップサンプリングデータは次いで、エンハンスメントレイヤビデオデータをコーディングするため使用される。ビデオ符号器50は、図1のソースデバイス12のエンハンスメントレイヤ符号器34に対応することがある。すなわち、話を簡単にするために、図2にはベースレイヤ符号化構成要素は示していない。したがって、ビデオ符号器50はエンハンスメントレイヤ符号器と考えることができる。場合によっては、ビデオ符号器50の図示の構成要素は、例えばベースレイヤおよびエンハンスメントレイヤのスケーラブルビデオコーディングをサポートするピラミッド形の符号器設計において、ベースレイヤ符号化モジュールまたはユニットと組み合わせて実装することもできる。
ビデオ符号器50はビデオフレーム内のブロックのイントラコーディングおよびインターコーディングを実行することができる。イントラコーディングは空間的予測を利用して、所与のビデオフレーム内のビデオの空間的冗長性を低減または除去する。インターコーディングは時間的予測を利用して、ビデオシーケンスの隣接フレーム内のビデオの時間的冗長性を低減または除去する。インターコーディングの場合、ビデオ符号器50は動き推定を実行して、2つ以上の隣接フレーム間でビデオブロックを一致させる動作を追跡する。イントラコーディングの場合、コーディングされているブロックに対する予測ブロックを形成するために、同じフレーム内の隣接ブロックからの画素を使用する空間的予測が適用される。図2には、イントラコーディングに使用される空間的予測構成要素は示していない。
図2に示すように、ビデオ符号器50は、符号化すべきビデオフレーム内の現行ビデオブロック31(例えば、エンハンスメントレイヤビデオブロック)を受信する。図2の実施例では、ビデオ符号器50は、動き推定ユニット33、基準フレームストア35、動き補償ユニット37、ブロック変換ユニット39、アップサンプラ45、量子化ユニット41、逆量子化ユニット42、逆変換ユニット44、およびエントロピーコーディングユニット46を含む。ブロック境界をフィルタリングしてブロッキネスアーチファクトを除去するために、デブロッキングフィルタ32も含めることもできる。ビデオ符号器50はまた、加算器48、加算器49Aおよび49B、ならびに加算器51を含む。図2は、ビデオブロックをインターコーディングするためのビデオ符号器50の時間的予測構成要素を示す。説明を容易にするために図2には示していないが、ビデオ符号器50は、いくつかのビデオブロックをイントラコーディングするための空間的予測構成要素を含むこともできる。
動き推定ユニット33は、ビデオブロック31を1つまたは複数の隣接ビデオフレーム中のブロックと比較して、1つまたは複数の動きベクトルを生成する。1つまたは複数の隣接フレームは基準フレームストア35から取り出すことができ、基準フレームストアは、以前に符号化されたブロックから再構成されたビデオブロックを格納するために任意のタイプのメモリまたはデータ記憶装置を備えることができる。動き推定は、可変サイズ、例えば16×16、16×8、8×16、8×8またはより小さいブロックサイズのブロックに対して実行できる。動き推定ユニット33は、例えばレート歪モデルに基づいて現行ビデオブロック31に最も近接して一致する隣接フレーム中のブロックを特定し、ブロック間の変位を決定する。これに基づいて、動き推定ユニット33は、現行ビデオブロック31と現行ビデオブロック31をコーディングするために使用される予測ブロックとの間の変位の大きさおよび軌道を示す1つの動きベクトル(MV)(または双方向予測の場合は複数のMV)を生成する。
動きベクトルは2分の1または4分の1の画素精度、あるいはさらに微細な精度を有することができ、ビデオ符号器50が整数画素位置よりも高い精度で動きを追跡し、より良好な予測ブロックを得ることを可能にする。微小な画素値をもつ動きベクトルが使用されると、補間演算が動き補償ユニット37で実行される。動き推定ユニット33は、レート歪モデルを使用してビデオブロックに対する最善の動きベクトルを特定することができる。得られた動きベクトルを使用して、動き補償ユニット37は動き補償によって予測ビデオブロックを形成する。
ビデオ符号器50は、加算器48で元の現行ビデオブロック31から、動き補償ユニット37によって生成された予測ビデオブロックを減算することによって残差ビデオブロックを形成する。ブロック変換ユニット39は、残差ブロックに離散コサイン変換(DCT)など変換を適用し、残差変換ブロック係数を生成する。この時点で、加算器49Aを使用して、エンハンスメントレイヤ残差情報からベースレイヤ残差情報を減算することによって、さらなる圧縮が適用される。アップサンプラ45は、(例えば、ベースレイヤ符号器から)ベースレイヤ残差情報を受信し、アップサンプリング情報を生成するためにベースレイヤ残差情報をアップサンプリングする。次いで、このアップサンプリング情報が、コーディングされているエンハンスメントレイヤ残差情報から(加算器49Aを介して)減算される。
以下でより詳細に説明するように、アップサンプラ45は、補間が好ましい状況と、いわゆる「最近隣」複製技法が好ましい他の状況とを識別することができる。補間では、アップサンプリング値の重み付き平均を生成し、重み付き平均はベースレイヤの2つの値の間で定義される。最近隣複製の場合、アップサンプリング値は、アップサンプリング画素位置に最も近い空間的近傍にあるベースレイヤの画素位置の値として定義される。本開示によれば、アップサンプラ45は、アップサンプリングの特定のシナリオでは補間を使用し、他のシナリオでは最近隣複製技法を使用する。特に、アップサンプラ45による補間を実行すべきか、最近隣複製技法を実行すべきかの決定は、アップサンプリング値がエンハンスメントレイヤのエッジ画素位置に対応するかどうかに基づく。これは、一般に補間すべきか、最近隣複製技法を使用すべきかを決定する際にベースレイヤの画素位置のみを考慮する従来のアップサンプリング技法とは対照的である。話を簡単にするために、本開示では補間および最近隣の例を一次元で説明するが、そのような一次元の補間または最近隣技法は一般に水平次元と垂直次元の両方で連続的に適用できる。アップサンプラ45によってアップサンプリングする前にベースレイヤ情報のブロックエッジをフィルタリングするために、追加のフィルタ47を含めることもできる。図2では、追加のフィルタ47はアップサンプラ45より前に位置するように示されているが、2つの異なるベースレイヤのコーディングブロックに対応する2つのベースレイヤの画素から補間されるアップサンプリングビデオデータ中のそれらの画素位置をフィルタリングするために、アップサンプラ45の後に配置することもできる。いずれにせよ、フィルタ47によるこの追加のフィルタリングは任意であり、本開示の後半でより詳細に取り上げる。
量子化ユニット41は、ビットレートをさらに低減するために残差変換ブロック係数を量子化する。加算器49Aは、アップサンプラ45からアップサンプリング情報を受信し、加算器48とブロック変換ユニット39との間に配置されている。特に、加算器49Aはブロック変換ユニット39の出力から、アップサンプリングされたデータブロックを減算する。同様に、逆変換ユニット44と加算器51との間に配置されている加算器49Bもアップサンプラ45からアップサンプリング情報を受信する。加算器49Bは、アップサンプリングされたデータブロックを逆変換ユニット44の出力に加算し戻す。
空間的予測コーディングは、時間的予測コーディングに非常に類似した様式で動作する。しかしながら、時間的予測コーディングが隣接フレーム(または他のコーディング単位)のブロックを利用してコーディングを実行するのに対して、空間的予測は共通フレーム(他のコーディング単位)内のブロックを利用してコーディングを実行する。空間的予測コーディングはイントラコーディングされたブロックをコーディングするが、時間的予測コーディングはインターコーディングされたブロックをコーディングする。ここでも、話を簡単にするために、図2には空間的予測構成要素は示していない。
エントロピーユニット46は、送信された情報のビットレートをさらに低減するために、可変長コーディング、2値算術コーディング(binary arithmetic coding)(CABAC)、ハフマンコーディング、ランレングスコーディング、コーディングされたブロックパターン(coded block pattern)(CBP)コーディングなどのエントロピーコーディング技法によって、量子化された変換係数をコーディングする。エントロピーユニット46は、コーディング効率を上げるためにVLC表を選択することができる。エントロピーコーディングの後、符号化されたビデオは別のデバイスに送信できる。さらに、逆量子化ユニット42および逆変換ユニット44はそれぞれ、逆量子化および逆変換を適用して残差ブロックを再構成する。加算器49Bはアップサンプラ45からアップサンプリングデータ(ベースレイヤ残差ブロックのアップサンプリングされたバージョンを表す)を加算し戻し、加算器51は、動き補償ユニット37によって生成される動き補償された予測ブロックに、最終的に再構成された残差ブロックを加算して、基準フレームストア35に格納するための再構成されたビデオブロックを生成する。デブロックフィルタ32は、基準フレームを格納する前にデブロックフィルタリングを実行することができる。いくつかの実施例では、デブロックフィルタリングは任意でもよい。
本開示によれば、アップサンプラ45は、2つの異なるベースレイヤビデオブロックの2つの異なるエッジ間の位置に対応するアップサンプリングビデオブロックの1つまたは複数の画素位置の値を補間する。
一実施例では、アップサンプラ45は、ベースレイヤビデオデータに基づくアップサンプリングビデオデータの第1の値を、(i)エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応するアップサンプリングビデオデータの画素位置であって、エンハンスメントレイヤビデオブロックの内部画素位置の少なくとも一部が、異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、異なるベースレイヤビデオブロック間に位置しない、アップサンプリングビデオデータの画素位置とに対して補間する。アップサンプラ45は、ベースレイヤビデオデータ中の最近隣の値に基づくアップサンプリングビデオデータの第2の値を、(iii)エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、異なるベースレイヤビデオブロック間に位置する、アップサンプリングビデオデータの画素位置に対して定義することができる。
別の実施例では、アップサンプラ45は、ベースレイヤビデオデータに基づくアップサンプリングビデオデータの第1の値を、(i)エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応するアップサンプリングビデオデータの画素位置であって、エンハンスメントレイヤビデオブロックの内部画素位置の少なくとも一部が、異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、異なるベースレイヤビデオブロック間に位置しない、アップサンプリングビデオデータの画素位置とに対して補間する。この場合、アップサンプラ45は、ベースレイヤビデオデータ中の最近隣の値に基づくアップサンプリングビデオデータの第2の値を、(iii)エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、異なるベースレイヤビデオブロック間に位置する、アップサンプリングビデオデータの画素位置と、(iv)エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に異なるベースレイヤビデオブロック間に位置する、アップサンプリングビデオデータの画素位置とに対して定義することができる。異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備えることができる。この場合、アップサンプラ45は、アップサンプリング値に関連する位置(すなわち、アップサンプリング値がエンハンスメントレイヤ中のブロック境界に対応するかどうか、および値がベースレイヤ中のブロック境界間に位置するかどうか)のみでなく、2つの異なるベースレイヤビデオブロックが異なるコーディングモード(例えば、インターまたはイントラコーディングモード)を使用してコーディングされているかどうかも考慮する。
図3は、図1のビデオ復号器28または別のデバイスの復号器に対応することができるビデオ復号器60の例を示すブロック図である。ビデオ復号器60はアップサンプラ59を含み、アップサンプラ59は図2のアップサンプラ45の機能と同様の機能を実行する。すなわち、アップサンプラ45のように、アップサンプラ59は、2つの異なるベースレイヤビデオブロックの2つの異なるエッジ間の位置に対応する、エンハンスメントレイヤビデオブロックの1つまたは複数の画素位置についてアップサンプリングビデオブロックの値を補間する。さらに、アップサンプラ45のように、アップサンプラ59は本明細書に記載の方法で補間か最近隣複製を選択することができる。動きアップサンプラ61を使用してベースレイヤに関連付けられた動きベクトルをアップサンプリングすることもできる。任意のフィルタ65を使用して、アップサンプラ59によって実行されるアップサンプリングの前にベースレイヤデータのブロック境界をフィルタリングすることもできる。図3には示されていないが、フィルタ65は、アップサンプラ59の後にも配置され、2つの異なるベースレイヤのコーディングブロックに対応する2つのベースレイヤ画素から補間される、アップサンプリングビデオデータ中のそれらの画素位置をフィルタリングするのに使用できる。
ビデオ復号器60は、エンハンスメントレイヤ情報のエントロピー復号のためのエントロピーユニット52Aを含むことができ、ベースレイヤ情報のエントロピー復号のための別のエントロピーユニット52Bを含むことができる。イントラ予測構成要素は、図3には示されていないが、ビデオ復号器60がイントラおよびインター予測コーディングをサポートするならば使用できるであろう。エンハンスメントレイヤパスは逆量子化ユニット56Aおよび逆変換ユニット58Aを含むことができ、ベースレイヤパスは逆量子化ユニット56Bおよび逆変換ユニット58Bを含むことができる。ベースレイヤパス中およびエンハンスメントレイヤパス中の情報は加算器57によって組み合わせることができる。しかしながら、そのような組合せの前に、ベースレイヤ情報は本明細書に記載の技法に従ってアップサンプラ59によってアップサンプリングされる。
ビデオ復号器60はビデオフレーム内のブロックのインター復号を実行することができる。図3の例では、ビデオ復号器60はエントロピーユニット52Aおよび52B、動き補償ユニット54、逆量子化ユニット56Aおよび56B、逆変換ユニット58Aおよび58B、ならびに基準フレームストア62を含む。ビデオ復号器60は加算器64も含む。ビデオ復号器60は、加算器64の出力をフィルタリングするデブロックフィルタ53も含むことができる。ここでも、加算器57は、アップサンプラ59を介したベースレイヤパスのアップサンプリングの後にベースレイヤパスおよびエンハンスメントレイヤパス中の情報を組み合わせる。動きアップサンプラ61は、ベースレイヤに関連付けられた動きベクトルがエンハンスメントレイヤビデオデータの空間解像度に対応するように、そのような動きベクトルをアップサンプリングすることができる。
エンハンスメントレイヤビデオブロックの場合、エントロピーユニット52Aは、符号化されたビデオビットストリームを受信し、エントロピー復号技法を適用して情報を復号する。これは、量子化された残差係数、マクロブロックおよびサブブロックコーディングモードならびに動き情報を生成することができ、動きベクトルおよびブロックパーティションを含むことができる。エントロピーユニット52Aによって復号が実行された後、動き補償ユニット54は、動きベクトルと、基準フレームストア62からの1つまたは複数の再構成された基準フレームとを受信する。逆量子化ユニット56Aは、量子化されたブロック係数を逆量子化(inverse quantize)、すなわち逆量子化(de-quantize)し、逆変換ユニット58Aは、残差ブロックを生成するために逆変換、例えば逆DCTを係数に適用する。逆変換ユニット58Aの出力はアップサンプラ59の出力としてアップサンプリングベースレイヤ情報と組み合わされる。加算器57はこの組合せを可能にする。動き補償ユニット54は、復号化ブロックを形成するために加算器64によって残差ブロックと加算される動き補償ブロックを生成する。デブロックフィルタ53は、ブロッキネスアーチファクトを除去するために復号化ブロックをフィルタリングする。次いで、フィルタリングされたブロックは基準フレームストア62中に配置され、基準フレームストア62は動き補償からの基準ブロックを供給し、ドライブディスプレイデバイス(図1のデバイス30など)に対して復号化ビデオも生成する。
SVCは、コーディング性能を改善するために、いくつかのレイヤ間予測技法をサポートすることができる。例えば、エンハンスメントレイヤのマクロブロックをコーディングするときに、ベースまたは前のレイヤからの対応するマクロブロックモード、動き情報、および残差信号が使用できる。特に、ベースまたは前のレイヤ中のいくつかの残差ブロックは、対応するエンハンスメントレイヤの残差ブロックと相関させることができる。これらのブロックでは、残差予測を適用すると、エンハンスメントレイヤの残差エネルギーが低減され、コーディング性能を改善することができる。
SVCでは、残差予測が使用されるか否かは、マクロブロックに関連する1ビットのフラグResPredを使用して示すことができ、そのフラグはマクロブロックレベルのシンタクス要素としてコーディングすることができる。ResPred=1である場合、エンハンスメントレイヤ残差は、そこからベースレイヤ残差ブロックを減算した後にコーディングされる。エンハンスメントレイヤのビットストリームがより高い空間解像度をもつビデオ信号を表す場合、ベースレイヤ残差信号はレイヤ間予測に使用される前にエンハンスメントレイヤの解像度にアップサンプリングされる。これは、図2および図3のアップサンプラ45および59の機能、すなわちアップサンプリングビデオブロックの生成である。SVC合同草案8(JD8)では、ベースレイヤブロック境界上でのいくつかの例外とともに、ベースレイヤの残差信号をアップサンプリングするためにアップサンプラ用の双一次フィルタが提案されている。
SVC JD8はダイアディック(dyadic)空間スケーラビリティおよび拡張空間スケーラビリティ(ESS)をサポートする。ダイアディック空間スケーラビリティでは、エンハンスメントレイヤのビデオフレームの大きさは各次元においてベースレイヤのビデオの2倍であり、クロッピングは、あるとすればマクロブロック境界上で起こる。ESSでは、ベースレイヤのビデオ信号とエンハンスメントレイヤのビデオ信号との間の任意のスケーリング比およびクロッピングパラメータが許される。ESSが使用される場合、ベースレイヤとエンハンスメントレイヤとの間の画素アラインメントは任意とすることができる。
図4および図5は、それぞれスケーリング比が2:1および5:3であるベースレイヤおよびエンハンスメントレイヤにおける画素の相対的な配置の例を示す。図4および図5では、ラベル「B」はベースレイヤに関連する画素位置を指し、ラベル「E」はアップサンプリングデータ(エンハンスメントレイヤのデータに対応する)に関連する位置を指す。(1つまたは複数の)アップサンプリングビデオブロックは、エンハンスメントレイヤ情報のコーディングにおいて基準として使用される。図5の中心画素位置のラベル「BE」は、ベースレイヤと、エンハンスメントレイヤの解像度を有するアップサンプリングデータとで同じ画素位置が重なることを意味する。
図4および図5に示すように、より低い解像度のベースレイヤからエンハンスメントレイヤのより高い解像度へのアップサンプリングは二次元で起こる。しかしながら、この二次元のアップサンプリングは、画素位置ごとに、連続した一次元のアップサンプリング処理によって容易に行うことができる。例えば、図5では、ベースレイヤビデオデータ(ラベルB)の3×3画素配列は、中間値(ラベルX)の5×3画素配列になるように、まず水平方向にアップサンプリングされる。次いで、5×3画素配列Xは、エンハンスメントレイヤの空間解像度(ラベルE)に対応するアップサンプリングビデオデータの最終的な5×5画素配列になるように、垂直方向にアップサンプリングされる。図5では、アップサンプリングされた画素位置とアップサンプリング前の画素の位置が同じになる可能性があることに留意されたい。例えば、中心画素は、B、E、およびXの3つのラベルが付されている。水平および垂直アップサンプリング処理中に、本開示に従って、補間を使用すべきか、最近隣複製を使用すべきかに関する決定が適用できる。
以下の説明では、補間および最近隣複製技法について水平次元で論じる。しかしながら、二次元アップサンプリングのために連続線形技法(successive linear technique)が垂直および水平方向に適用できることを理解されたい。
空間スケーラビリティが使用される場合、ベースレイヤ残差信号がアップサンプリングされる。生成されたアップサンプリングデータは、エンハンスメントレイヤのビデオ情報と同じ空間次元を有し、エンハンスメントレイヤ残差のための予測データとして使用される。ここでも、SVC JD8は、このアップサンプリングのための双一次フィルタの使用を提案している。図6に、ダイアディック空間スケーラビリティの場合の、水平方向の双一次アップサンプリングでの重みを導出するために使用される画素距離が示されている。垂直次元の双一次アップサンプリングは水平方向の場合と同様に行われる。
図6は、ベースレイヤブロック中の画素の行、およびエンハンスメントレイヤの空間解像度に対応するアップサンプリングされたブロック中の画素の行を示す。図6に示すように、画素位置e0およびe1におけるアップサンプリングされた残差値p(e0)およびp(e1)は、式(1)および(2)によって導出され、式中、b0およびb1はベースレイヤ中の最も近い整数画素位置である。
Figure 0005175303
図7に、スケーリング比5:3をもつESSの場合の、水平方向の双一次アップサンプリングで使用される重みが示されている。ここでも、垂直次元の双一次アップサンプリングは水平方向の場合と同様に行われる。
図7で、画素位置e0〜e4のアップサンプリング残差値p(e0)〜p(e4)は、式(3)〜(7)のように導出され、式中、b0〜b4は、補間で使用されるベースレイヤ中の整数画素位置であり、e0〜e4は、エンハンスメントレイヤの空間解像度に対応するアップサンプリングレイヤ中の画素位置である。
Figure 0005175303
ブロックエッジにわたる不連続性がベースレイヤ中の再構築された残差信号中に存在する。不連続性が存在する位置は、ベースレイヤビデオをコーディングするために使用される変換サイズに依存する。4×4ブロック変換が使用される場合、不連続性は4×4ブロック境界上に存在する。8×8ブロック変換が使用される場合、不連続性は8×8ブロック境界上に存在する。JD8では、双一次補間で使用される2つのベースレイヤ画素(例えば図6のb0およびb1)が異なる2つのブロックに属する場合、双一次補間は使用不能になる。代わりに、アップサンプリング値は、ベースレイヤ中の最近隣画素から複製することによって導出される。
図6のダイアディック空間スケーラビリティの例では、位置b0およびb1の画素が2つのブロックに属する場合、e0およびe1の画素は、式(1)および(2)の代わりに式(8)および(9)を使用して導出される。
Figure 0005175303
ESSでは、ベースレイヤ中のコーディングブロック境界はエンハンスメントレイヤ中のコーディングブロック境界とアラインされない。したがって、エンハンスメントレイヤ解像度に対応するアップサンプリングブロックは、異なるベースレイヤのコーディングブロックから補間された画素を含むことができる。5:3の空間比を有するESS(図7)の場合、ブロックアラインメントの一例を図8で見出すことができる。図8では、画素B0〜B3は1つのベースレイヤのコーディングブロックに属し、画素B4〜B5は(4×4変換が使用されると仮定して)異なるベースレイヤのコーディングブロックに属する。この場合、信号不連続性が画素B3とB4との間に存在することがある。エンハンスメントレイヤの空間解像度に対応するアップサンプリングレイヤでは、画素E0〜E4がベースレイヤ画素B0〜B3から補間または複製され、画素E5〜E7がベースレイヤ画素B3〜B5から補間または複製される。e0〜e7と表示されたアップサンプリング画素が1つの8×8アップサンプリングコーディングブロックに属すると仮定すると、ベースレイヤからの信号不連続性は8×8アップサンプリングレイヤ内に引き継がれることになる。特に、b3およびb4のベースレイヤ画素は2つのベースレイヤブロックに属するので、従来の技法によれば、位置e5のアップサンプリング画素は、b3およびb4の画素から補間される代わりに、位置b4のベースレイヤ画素から複製されることになる。(JD8で定義された従来の技法による)この強制的複製は8×8エンハンスメントレイヤブロック内の信号不連続性の問題を悪化させることがある。このことは、あまり正確でない残差予測につながることがある。
本開示では、適応残差アップサンプリング方式を概説する。適応残差アップサンプリング方式は、ベースレイヤとエンハンスメントレイヤとの間の相対的なブロックアラインメントを考慮することによって、データのアップサンプリングブロック内の信号不連続性を緩和することができる。アップサンプリング残差信号品質をさらに改善するために、(アップサンプリングの前に)ベースレイヤ中の残差信号および/または(アップサンプリングの後に)エンハンスメントレイヤ中の残差信号に適応ローパスフィルタリングを適用してもよい。例えば、図2および図3のフィルタ47および65はそれぞれ、アップサンプリングの後にエンハンスメントレイヤのこのフィルタリングを可能にするローパスフィルタを備えることができる。図2および図3では、ローパスフィルタリングはアップサンプリングの前にベースレイヤ中の残差信号に適用されるものとして示されているが、このローパスフィルタ(図2および図3の要素47および65)は、アップサンプラ45の後、およびアップサンプラ59の後、ならびに加算器49Aおよび加算器57の前に配置してもよい。
要約すると、SVC JD8で規定された残差アップサンプリング処理において、アップサンプリングデータ中の画素位置ごとに、最初に、対応するベースレイヤ画素位置が決定される。ベースレイヤ画素が(水平または垂直の)所与の方向で同じベースレイヤのコーディングブロックに属する場合、その方向の双一次補間は、アップサンプリングデータ中の値を取得するために呼び出される。他の場合(ベースレイヤ画素が所与の方向で異なるベースレイヤのコーディングブロックに属する場合)には、アップサンプリングデータ中の値はベースレイヤ中の最近隣画素から複製することによって決定される。
特に、ベースレイヤとエンハンスメントレイヤのブロックアラインメントが任意であることがある拡張空間スケーラビリティの場合、SVC JD8で現在規定されている残差アップサンプリングは、エンハンスメントレイヤブロック内の信号不連続性の問題を悪化させることがある。そのような信号不連続性は、残差予測で使用されるとき、アップサンプリング信号を歪め、予測信号としてのその精度を低減することがある。
本開示によれば、補間を呼び出すべきか、最近隣画素から複製すべきかに関する決定は、ベースレイヤブロックとエンハンスメントレイヤブロックとの間のアラインメントに応じて判断できる。一例として図8を取り上げる。アップサンプリング画素e5の位置に対応するエンハンスメントレイヤ画素は、エンハンスメントレイヤ解像度において8×8コーディングブロック内にある。この場合、位置b4のベースレイヤ画素から複製すること、すなわちp(e5)=p(b4)の代わりに、位置b3およびb4のベースレイヤ画素間の双一次補間を、信号不連続性を緩和して予測精度を改善するために呼び出すことができる。すなわち、e5のアップサンプリング画素値は、式(10)を使用して導出できる。
Figure 0005175303
次の条件が両方とも真の場合のみ、最近隣画素から複製することを呼び出すことができる。
C1.補間すべきアップサンプリング画素がエンハンスメントレイヤのコーディングブロック境界上にある。
C2.補間処理に関係するベースレイヤ画素が異なるベースレイヤのコーディングブロックに属する。
ビデオコーディングシステムは2つ以上のブロック変換をサポートすることができる。例えば、H.264/AVCでは、4×4および8×8整数ブロック変換の両方とも輝度ブロックに対してサポートされ、4×4変換のみが色ブロックに適用される。色コンポーネントの場合、4×4ブロックのDC係数に対して追加のDC変換が行われる。このことによりブロック状のアーチファクトが4×4ブロック境界において起こるという事実は変わらないので、本開示の説明ではこの変換は考慮しない。
残差信号に適用されたブロック変換は、マクロブロック−レベルシンタックス要素としてビデオビットストリーム中に符号化される。SVCの状況では、残差アップサンプリングが実施される場合、ベースレイヤのコーディングブロックに適用されるブロック変換タイプは符号器と復号器の両方に知られている。エンハンスメントレイヤの場合、復号器は、エンハンスメントレイヤ残差をコーディングするために使用されたブロック変換タイプを知ることができる。しかしながら、符号器側では、ベースレイヤ残差信号がアップサンプリングされている場合、エンハンスメントレイヤ残差をコーディングするために使用されるであろう実際のブロック変換は、まだ知られていない。1つの解決策は、モード決定処理で試行される様々なブロック変換タイプについて、上記で様々に定義された規則に基づいてベースレイヤ残差をアップサンプリングすることである。
2つの代替の方法を使用して、この問題を緩和し、符号器と復号器の両方がエンハンスメントレイヤのコーディングブロックサイズを決定し、したがってコーディングブロック境界を特定するための共通の規則を提供することができる。
[コーディングブロック規則A]エンハンスメントレイヤのコーディングブロックサイズは、輝度コンポーネントでは8×8、色コンポーネントでは4×4であると仮定できる。または
[コーディングブロック規則B]エンハンスメントレイヤのコーディングブロックサイズは、輝度コンポーネントと色コンポーネントの両方に対して8×8であると仮定できる。
ベースレイヤ中およびエンハンスメントレイヤ中のコーディングブロックが上記の規則のいずれかを使用して決定された後、補間処理に関係する画素がコーディングブロック境界上にあるかどうかを、次のように決定することができる。
a.アップサンプリング画素の補間で使用すべきベースレイヤ画素は、それがベースレイヤのコーディングブロック内の最後の画素である場合、またはそれがベースレイヤのコーディングブロック内の最初の画素である場合のいずれかの場合、(水平または垂直のいずれかの)所与の方向でベースレイヤのコーディングブロック境界上にあると考えられる。
b.補間すべきアップサンプリング画素は、それがエンハンスメントレイヤのコーディングブロック内の最後の画素である場合、またはそれがエンハンスメントレイヤのコーディングブロック内の最初の画素である場合のいずれかの場合、(水平または垂直のいずれかの)所与の方向でエンハンスメントレイヤブロック境界上にあると考えられる。
これらの規則では、コーディングブロック境界を両側で幅1画素であると考える。しかしながら、コーディングブロック境界は両側で1画素以外の幅を有すると考えられる。さらに、ベースレイヤおよびエンハンスメントレイヤは、コーディングブロック境界の異なる定義を有することができる。例えば、ベースレイヤはコーディングブロック境界を両側で幅1画素であると定義することができ、エンハンスメントレイヤはコーディングブロック境界を両側で1画素より広いと定義することができ、逆もまた同様である。
本開示の範囲が双一次補間の使用に限定されないことは注目すべきことである。ベースレイヤとエンハンスメントレイヤとの間のブロックアラインメントに基づくアップサンプリングの決定はどんな補間方式にも適用できる。2:1および5:3の空間比、ならびにこれらの比に対応するブロックアラインメント、および補間式中に与えられる対応する重みが例として上記で与えられているが、本開示の範囲を限定するものではない。さらに、開示された方式は、4×4および8×8以外のコーディングブロックサイズが使用できる他のビデオコーディングシステムおよび/または標準の残差アップサンプリングに適用できる。補間は、補間すべき画素の両側に位置するいくつかの画素の重み付き平均を使用することもできる。
アップサンプリングデータ内で内部画素として現れることがあるベースレイヤ残差中のブロック境界にわたる信号不連続性の問題をさらに緩和するために、アップサンプリングの前に、ベースレイヤ残差信号に対してローパスフィルタリングを行うと、この不連続性が低減され、アップサンプリング残差の品質を改善することができる。例えば、図8のe5の画素値を取得するために式(13)を適用する前に、ベースレイヤ中の位置b3およびb4の画素値に対して式(11)および(12)の演算を実施することができる。ここでも、これは、アップサンプラ45(図2)またはアップサンプラ59(図3)より前に位置するフィルタ47および65(例えばローパスフィルタ)を介して実現できる。
Figure 0005175303
式(11)および(12)では、[1,2,1]スムージングフィルタが一例として使用される。代替として、例えば、[1,2,1]の代わりにタップ係数[1,6,1]を有する、スムージング効果がより小さい修正ローパスフィルタが(11)および(12)で使用できる。さらに、アップサンプリングが実施される前に、ベースレイヤ不連続性の性質および大きさに応じてフィルタ強度を調節する適応ローパスフィルタをベースレイヤ残差信号に適用してもよい。ローパスフィルタは、ベースレイヤブロック境界の画素(図8のb3およびb4)にのみ適用でき、または代替的に、ブロック境界に隣接する画素(例えば図8のb2およびb5)にも適用できる。
アップサンプリングの前にベースレイヤ信号にローパスフィルタを適用すべきかどうかに関する決定は、エンハンスメントレイヤ画素および関係するベースレイヤ画素の位置に基づいてよい。例えば、次の条件が両方とも真の場合、追加のローパスフィルタがベースレイヤ画素に適用できる。
1.補間処理で使用すべきベースレイヤ画素が異なるベースレイヤのコーディングブロックに属する。
2.補間すべきアップサンプリング画素がエンハンスメントレイヤのコーディングブロック内の内部画素に対応する。アップサンプリングコーディングブロックが上記で説明したコーディングブロック規則Aまたはコーディングブロック規則Bを使用して決定できる。
アップサンプリングコーディングブロックに対して内部の画素における信号不連続性を低減する別の方法は、補間の後にアップサンプリング信号にローパスフィルタを適用することである。これは、アップサンプラ45および59の後に適用すべき図2および図3のフィルタ47および65を並べ替えることによって達成できる。一例として、図8の位置e5における画素を使用して、p(e5)が式(10)および(11)を使用して得られた後、次式を適用することができる。
Figure 0005175303
式(14)では、p(e4)およびp(e6)は位置e4およびe6のアップサンプリング画素値である。ここでも、[1,2,1]スムージングフィルタは例として使用される。代替ローパスフィルタリングも適用できる。例えば、タップ係数[1,6,1]を有する修正スムージングフィルタが適用できる。代替として、信号不連続性の性質および大きさに基づく適応ローパスフィルタリングが適用できる。
追加のローパスフィルタを適用すべきかどうかの決定は、関係するアップサンプリング画素およびベースレイヤ画素の位置に基づく。例えば、次の条件が両方とも真の場合、追加のローパスフィルタを適用することができる。
1.アップサンプリング画素がエンハンスメントレイヤのコーディングブロック内の内部画素に対応する。エンハンスメントレイヤのコーディングブロックが(上記の)コーディングブロック規則Aまたはコーディングブロック規則Bのいずれか、あるいは他のコーディングブロック規則を使用して決定できる。
2.補間処理中で使用されるベースレイヤ画素が異なるベースレイヤのコーディングブロックに属する。
SVCは、エンハンスメントレイヤのコーディング性能を改善するために、残差予測をサポートする。空間スケーラビリティでは、ベースレイヤ残差信号は、残差予測で使用される前にアップサンプリングされる。ベースレイヤのコーディングブロックにわたる信号不連続性がベースレイヤ残差中に存在することがあり、この信号不連続性がアップサンプリング信号内に引き継がれることがある。ESSの場合、この継承された不連続性が現れる位置は任意であり得る。アップサンプリング信号の品質を改善するために、スケーラブルビデオコーディングのための適応残差アップサンプリング方式を本開示で説明する。
残差アップサンプリング中、SVC JD8の既存の方式では異なるベースレイヤのコーディングブロックからの画素間の補間をすることができない。対照的に、提案された本開示の適応アップサンプリング方式を用いて、ベースレイヤとエンハンスメントレイヤとの間の相対的なブロックアラインメントをアップサンプリング処理において考えることができる。特に、アップサンプリングすべき画素がエンハンスメントレイヤのコーディングブロックの内部画素に対応するとき、最近隣画素からの複製ではなく補間を使用してエンハンスメントレイヤのコーディングブロック内の信号不連続性を低減することができる。
また、上記のように、エンハンスメントレイヤのコーディングブロック内に存在することがある信号不連続性をさらに低減するために、追加のローパスフィルタリングを補間の前と後の両方に残差信号に適用することができる。特に、アップサンプリング画素が、対応するエンハンスメントレイヤのコーディングブロックの内部画素に対応し、関係するベースレイヤ画素がベースレイヤのコーディングブロック境界上にあるか、またはその境界に近接している場合、次のことが適用できる。
1.補間の前に、スムージングフィルタまたは適応ローパスフィルタを、ベースレイヤのコーディングブロック境界上にあるか、またはその境界に近接しているベースレイヤ画素に適用することができる。
2.補間の後に、スムージングフィルタまたは適応ローパスフィルタを、エンハンスメントレイヤのコーディングブロック中の内部画素であるエンハンスメントレイヤ画素に適用することができる。
残差アップサンプリング中に補間を呼び出すべきか、最近隣複製を呼び出すべきかを決定するとき、考えるべき別の要素は、関係するベースレイヤブロックのコーディングモード(インターコーディング対イントラコーディング)である。SVCでは、アップサンプリングはインターコーディングされたブロックからの残差信号にのみ適用される。JD8では、ベースレイヤビデオブロックがイントラコーディングされているとき、その残差信号はベースレイヤ残差画像中でゼロにリセットされる。これは、コーディングモードが変化するとき、ベースレイヤ残差ブロックにわたる強い信号不連続性を伴う。したがって、2つのベースレイヤ画素間に補間を適用しないことは、それらが異なるコーディングモードをもつブロックに属する場合、有益なことがある。言い換えれば、次の決定を使用することができる。
1.関係する2つのベースレイヤ画素が、一方がイントラコーディングされ、他方がインターコーディングされている2つのベースレイヤのコーディングブロックに属する場合、最近隣複製を使用する。
上記の規則は、本開示に記載したようにブロックアラインメントに基づく適応補間決定規則と組み合わせることができる。組み合わせると、適応補間決定は次のようになる。次の条件1および2のいずれかが真のとき、最近隣画素からの複製を呼び出すことができる。
1.補間処理に関係するベースレイヤ画素が異なるベースレイヤのコーディングブロックに属し、ベースコーディングブロックが異なるコーディングモードを有する場合、または
2.次の条件が両方とも真である場合
a.補間すべきアップサンプリング画素がエンハンスメントレイヤのコーディングブロック境界上にある。
b.補間処理に関係するベースレイヤ画素が異なるベースレイヤのコーディングブロックに属する。
以下の擬似コードでは、本開示に合致する技法を実装するために、残差アップサンプリングおよび残差予測中に、JD8に記載のロジックに下線付きの条件を追加することができる。
Figure 0005175303
ベースレイヤのブロックサイズは、ベースレイヤのコーディングで使用される実際のブロックサイズである。シンタックス要素FRextはブロックヘッダの一部として定義できる。FRextがオフの場合、エンハンスメントレイヤのブロックサイズも4×4であることが知られている。しかしながら、符号器側で、エンハンスメントレイヤに対して4×4と8×8の両方の変換が可能である(すなわちFRextがオンである)場合、残差アップサンプリングが実行されるとき、エンハンスメントレイヤでのブロックサイズ(すなわち変換サイズ)はまだ知られていない。この状況(エンハンスメントレイヤに対してFRextがオン)では、エンハンスメントレイヤのブロックサイズは、輝度に対して8×8であり、色に対して4×4であると仮定できる。すなわち、輝度に対して、e=8*m−1またはe=8*m(mは整数)の場合、位置eのアップサンプリング画素はブロック境界画素であると考えられる。色に対して、e=4*m−1またはe=4*mの場合、位置eのアップサンプリング画素はブロック境界画素であると考えられる。
復号の場合、シンタックス要素の変更は不要である。JD8の復号処理(下位節G.8.10.3)は次のように修正でき、修正を下線で示す。
残差予測のための双一次補間の場合、入力は以下の通りである。
...
可変blkSize(輝度ではblkSize=8または4、色ではblkSize=4)
配列transBlkType[x,y](x=0..mb−1かつy=0..nb−1)
この処理の出力は、配列resInterp[x,y](x=0..m−1かつy=ys..ye−1)である。
・ 変数temp1を次のように導出されるものとする。
− transBlkIdx[x1,y1]がtransBlkIdx[x2,y1]に等しい、または0<(x%blkSize)<(blkSize−1)かつtransBlkType[x1,y1]がtransBlkType[x2,y2]に等しい場合
temp1=r[x1,y1]*(16−(posX[x]%16))+r[x2,y1]*(posX[x]%16)(G−544)
...
・ 変数temp2を次のように導出されるものとする。
− transBlkIdx[x1,y2]がtransBlkIdx[x2,y2]に等しい、または0<(x%blkSize)<(blkSize−1)かつtransBlkType[x1,y2]がtransBlkType[x2,y2]に等しい場合
temp1=r[x1,y2]*(16−(posX[x]%16))+r[x2,y2]*(posX[x]%16)(G−547)
...
・ resInterpを次のように導出されるものとする。
− transBlkIdx[x1,y1]がtransBlkIdx[x1,y2]に等しい、または0<(y%blkSize)<(blkSize−1)かつtransBlkType[x1,y1]がtransBlkType[x1,y2]に等しい場合
resInterp[x,y]=(temp1*(16−(posY[y]%16))+temp2*(posY[y]%16)+(128))>>8)(G−550)
...
JVT−V302で規定されているコア実験2(CE2)のテスト条件に従ってシミュレーションを実行し、このシミュレーションでは、JD8に記載の従来の技法に対して本開示の技法を使用したときにビデオ品質のピーク信号対雑音比(PSNR)の改善が見られた。ESSの場合、残差アップサンプリングへの提案された小さい変更は、エンハンスメントレイヤのコーディングブロック内のアップサンプリング残差中のブロッキングアーチファクトを低減する非常に簡単で効果的な方法を提供する。シミュレーション結果は、すべてのCE2テスト条件についてJSVM_7_13と比較して、提案された変更がコーディング性能を高めることを示している。さらに、提案された方式は、再構築されたエンハンスメントレイヤビデオ中の不快なブロッキングアーチファクトを抑制することによって、視覚的品質を大幅に改善する。
図9は、本開示に合致する技法を示す流れ図である。図9については符号器の観点から説明するが、同様の処理が復号器によって実行されるであろう。図9に示すように、ベースレイヤ符号器32はベースレイヤ情報をコーディングし(200)、エンハンスメントレイヤ符号器34はエンハンスメントレイヤ情報をコーディングする(202)。エンハンスメントレイヤのコーディング処理の一部として、エンハンスメントレイヤ符号器34(例えば図2に示されるビデオ符号器50)はベースレイヤ情報を受信する(204)。フィルタ47はベースレイヤ情報のブロック境界の任意のフィルタリングを実行することができる(206)。アップサンプラ45は、ベースレイヤ情報をアップサンプリングして、補間または最近隣複製を選択するために本明細書で定義した様々な技法および規則を使用してアップサンプリングビデオブロックを生成する(208)。ベースレイヤブロック境界画素から補間されたエンハンスメントレイヤビデオ画素のためのアップサンプラ45の後にも任意のフィルタ47が適用でき(210)(例えば図8の画素e5および式14)、ビデオ符号器50はアップサンプリングデータを使用してエンハンスメントレイヤ情報をコーディングする(212)。
本開示に記載の技術は、汎用マイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の均等な論理デバイスなど、1つまたは複数のプロセッサ中に実装できる。
本明細書に記載の技法は、ハードウェア、ソフトウェア、ファームウェア、またはその任意の組合せで実装できる。モジュールまたは構成要素として説明される特徴はどれも、一体化された論理デバイスで一緒に実装でき、または個別であるが相互運用可能な論理デバイスとして別々に実装できる。ソフトウェアで実装される場合、本技法は、実行されると上記の方法のうちの1つまたは複数を実行する命令を備えるコンピュータ可読媒体によって少なくとも一部が実現できる。コンピュータ可読データ記憶媒体は、パッケージ材料を含むことがあるコンピュータプログラム製品の一部をなすことができる。コンピュータ可読媒体は、同期ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読出し専用メモリ(EEPROM)、FLASHメモリ、磁気データ記憶媒体または光学データ記憶媒体などを備えることができる。本技法は、さらに、または代替的に、命令またはデータ構造の形態でコードを搬送または伝達し、コンピュータによってアクセス、読み込み、および/または実行できるコンピュータ可読通信媒体によって、少なくとも一部が実現できる。
プログラムコードは、1つまたは複数のプロセッサ、DSP、汎用マイクロプロセッサ、ASIC、FPGA、または他の均等な一体化されたまたは個別の論理回路によって実行できる。したがって、本明細書で使用される「プロセッサ」という用語は、本明細書に記載の技法の実装に好適な前述の構造または他の構造のいずれかを指すことができる。本開示では、「プロセッサ」という用語は、1つまたは複数のマイクロプロセッサ、DSP、ASIC、FPGAまたは論理回路の任意の組合せを包含するものである。さらに、一部の態様では、本明細書に記載の機能を、符号化および復号のために構成された、または複合ビデオ符号器復号器(CODEC)に組み込まれた専用のソフトウェアモジュールまたはハードウェアモジュール内に設けることができる。
ハードウェアで実装された場合、本開示は、集積回路、チップセット、ASIC、FPGA、論理回路、またはそれらの様々な組合せなど、本明細書に記載の1つまたは複数の技法を実施するように構成された回路を対象とすることができる。
本発明の様々な実施形態について説明した。これらおよび他の実施形態は以下の特許請
求の範囲内にある。
以下に、本願の出願当初の特許請求の範囲に記載された発明が付記される。
[1]空間スケーラビリティを用いてビデオデータをコーディングする方法であって、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成することと、前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングすることとを備え、前記アップサンプリングビデオデータを生成することは、前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することを含む、方法。
[2]前記アップサンプリングビデオデータを生成するステップは、前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間することと、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して定義することとを備える、[1]に記載の方法。
[3]前記アップサンプリングビデオデータを生成するステップは、前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間することと、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置と、(iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置とに対して定義することとを備える、[1]に記載の方法。
[4]前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、[3]に記載の方法。
[5]前記コーディングするステップは符号化することまたは復号することを備える、[1]に記載の方法。
[6]前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングするステップをさらに備える、[1]に記載の方法。
[7]前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングするステップをさらに備える、[1]に記載の方法。
[8]空間スケーラビリティを用いてビデオデータをコーディングする装置であって、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成するように構成されたアップサンプラと、前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングするように構成されたビデオコーディングユニットとを備え、前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間する、装置。
[9]前記アップサンプラは前記ビデオコーディングユニットの一部である、[8]に記載の装置。
[10]ビデオコーディング機能をもつ無線通信デバイスを備える、[8]に記載の装置。
[11]集積回路を備える、[8]に記載の装置。
[12]前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間し、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して定義することとを備える、[8]に記載の装置。
[13]前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングするフィルタを含む、[8]に記載の装置。
[14]前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間し、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置と、(iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に当該異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置とに対して定義する、[8]に記載の装置。
[15]前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、[14]に記載の装置。
[16]前記ビデオコーディングユニットは、前記ベースレイヤビデオデータを符号化するベースレイヤのコーディングユニットと、前記エンハンスメントレイヤビデオデータを符号化するエンハンスメントレイヤのコーディングユニットとを備え、前記エンハンスメントレイヤのコーディングユニットは前記アップサンプラを含み、前記アップサンプラが前記アップサンプリングビデオデータを生成する、[8]に記載の装置。
[17]前記ビデオコーディングユニットは、前記ベースレイヤビデオデータおよび前記エンハンスメントレイヤビデオデータを復号する複合ベース/エンハンスメントレイヤ復号ユニットを備え、前記複合ベース/エンハンスメントレイヤ復号ユニットは前記アップサンプラを含み、前記アップサンプラは前記アップサンプリングビデオデータを生成する、[8]に記載の装置。
[18]前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングするフィルタをさらに備える、[8]に記載の装置。
[19]プロセッサでの実行時に空間スケーラビリティを用いてビデオデータをコーディングすることを前記プロセッサに行わせる命令を備えるコンピュータ可読媒体であって、前記命令は、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成することと、前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングすることとを前記プロセッサに行わせ、前記アップサンプリングビデオデータを生成することは、前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することを含む、コンピュータ可読媒体。
[20]前記命令は、前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間することと、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して定義することとを前記プロセッサに行わせる、[19]に記載のコンピュータ可読媒体。
[21]前記命令は、前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングすることを前記プロセッサに行わせる、[19]に記載のコンピュータ可読媒体。
[22]前記命令は、前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間することと、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置と、(iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置とに対して定義することとを前記プロセッサに行わせる、[19]に記載のコンピュータ可読媒体。
[23]前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、[22]に記載のコンピュータ可読媒体。
[24]コーディングすることは符号化することまたは復号することを備える、[19]に記載のコンピュータ可読媒体。
[25]前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングすることを前記プロセッサに行わせる命令をさらに備える、[19]に記載のコンピュータ可読媒体。
[26]空間スケーラビリティを用いてビデオデータをコーディングするデバイスであって、ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成するための手段と、前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングするための手段とを備え、前記アップサンプリングビデオデータを生成するための手段は、前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間するための手段を含む、デバイス。
[27]前記アップサンプリングビデオデータを生成するための手段は、前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間するための手段と、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して定義するための手段とを備える、[26]に記載のデバイス。
[28]前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングするための手段をさらに備える、[26]に記載のデバイス。
[29]前記アップサンプリングビデオデータを生成するための手段は、前記ベースレイヤビデオデータに基づく前記アップサンプリングビデオデータの第1の値を、(i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、(ii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置とに対して補間するための手段と、前記ベースレイヤビデオデータ中の最近隣の値に基づく前記アップサンプリングビデオデータの第2の値を、(iii)前記エンハンスメントレイヤビデオブロックのエッジ画素位置に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置と、(iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置とに対して定義するための手段とを備える、[26]に記載のデバイス。
[30]前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、[29]に記載のデバイス。
[31]前記コーディングするための手段は符号化するための手段または復号するための手段を備える、[26]に記載のデバイス。
[32]前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングするための手段をさらに備える、[26]に記載のデバイス。

Claims (28)

  1. 空間スケーラビリティを用いてビデオデータをコーディングする方法であって、
    ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成することと、
    前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングすることとを備え、
    前記アップサンプリングビデオデータを生成するステップは、
    (i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、
    (ii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置と
    に対して前記アップサンプリングビデオデータの第1の値を前記ベースレイヤビデオデータの画素位置の値の重み付き平均を用いることによって補間することと、
    (iii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義することと
    を備える、方法。
  2. 前記アップサンプリングビデオデータを生成するステップは、
    (iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義すること
    を備える、請求項1に記載の方法。
  3. 前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、請求項2に記載の方法。
  4. 前記コーディングするステップは符号化することまたは復号することを備える、請求項1に記載の方法。
  5. 前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングするステップをさらに備える、請求項1に記載の方法。
  6. 前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングするステップをさらに備える、請求項1に記載の方法。
  7. 空間スケーラビリティを用いてビデオデータをコーディングする装置であって、
    ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成するように構成されたアップサンプラと、
    前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングするように構成されたビデオコーディングユニットとを備え、
    前記装置は、
    (i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、
    (ii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置と
    に対して前記アップサンプリングビデオデータの第1の値を前記ベースレイヤビデオデータの画素位置の値の重み付き平均を用いることによって補間し、
    (iii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義する、装置。
  8. 前記アップサンプラは前記ビデオコーディングユニットの一部である、請求項7に記載の装置。
  9. 前記装置は、ビデオコーディング機能をもつ無線通信デバイスにおいて実装される請求項7に記載の装置。
  10. 前記装置は、ビデオコーディング機能をもつ集積回路において実装される請求項7に記載の装置。
  11. 前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングするフィルタを含む、請求項7に記載の装置。
  12. 前記装置は、
    (iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に当該異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義する、
    請求項7に記載の装置。
  13. 前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、請求項12に記載の装置。
  14. 前記ビデオコーディングユニットは、
    前記ベースレイヤビデオデータを符号化するベースレイヤのコーディングユニットと、
    前記エンハンスメントレイヤビデオデータを符号化するエンハンスメントレイヤのコーディングユニットとを備え、前記エンハンスメントレイヤのコーディングユニットは前記アップサンプラを含み、前記アップサンプラが前記アップサンプリングビデオデータを生成する、請求項7に記載の装置。
  15. 前記ビデオコーディングユニットは、前記ベースレイヤビデオデータおよび前記エンハンスメントレイヤビデオデータを復号する複合ベース/エンハンスメントレイヤ復号ユニットを備え、前記複合ベース/エンハンスメントレイヤ復号ユニットは前記アップサンプラを含み、前記アップサンプラは前記アップサンプリングビデオデータを生成する、請求項7に記載の装置。
  16. 前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングするフィルタをさらに備える、請求項7に記載の装置。
  17. プロセッサでの実行時に空間スケーラビリティを用いてビデオデータをコーディングすることを前記プロセッサに行わせる命令を備えるプログラムを保存するコンピュータ可読記憶媒体であって、前記命令は、
    ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成することと、
    前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングすることとを前記プロセッサに行わせ、
    前記命令は、
    (i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、
    (ii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置と
    に対して前記アップサンプリングビデオデータの第1の値を前記ベースレイヤビデオデータの画素位置の値の重み付き平均を用いることによって補間することと、
    (iii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義することと
    を前記プロセッサに行わせる、コンピュータ可読記憶媒体
  18. 前記命令は、前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングすることを前記プロセッサに行わせる、請求項17に記載のコンピュータ可読記憶媒体
  19. 前記命令は、
    (iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義すること
    を前記プロセッサに行わせる、請求項17に記載のコンピュータ可読記憶媒体
  20. 前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、請求項19に記載のコンピュータ可読記憶媒体
  21. コーディングすることは符号化することまたは復号することを備える、請求項17に記載のコンピュータ可読記憶媒体
  22. 前記プログラムは、前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングすることを前記プロセッサに行わせる命令をさらに備える、請求項17に記載のコンピュータ可読記憶媒体
  23. 空間スケーラビリティを用いてビデオデータをコーディングするデバイスであって、
    ベースレイヤビデオデータに基づいて、エンハンスメントレイヤビデオデータの空間解像度に対応するアップサンプリングビデオデータを生成するための手段と、
    前記アップサンプリングビデオデータに基づいて前記エンハンスメントレイヤビデオデータをコーディングするための手段とを備え、
    前記アップサンプリングビデオデータを生成するための手段は、
    (i)前記エンハンスメントレイヤビデオデータ中で定義されるエンハンスメントレイヤビデオブロックの内部画素位置に対応する前記アップサンプリングビデオデータの画素位置であって、前記エンハンスメントレイヤビデオブロックの前記内部画素位置の少なくとも一部が前記異なるベースレイヤビデオブロック間の位置に対応する、画素位置と、
    (ii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置しない、前記アップサンプリングビデオデータの画素位置と
    に対して前記アップサンプリングビデオデータの第1の値を前記ベースレイヤビデオデータの画素位置の値の重み付き平均を用いることによって補間するための手段と、
    (iii)前記エンハンスメントレイヤビデオブロックのブロック境界に対応し、前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義するための手段と
    を備える、デバイス。
  24. 前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータ中の補間値をフィルタリングするための手段をさらに備える、請求項23に記載のデバイス。
  25. 前記アップサンプリングビデオデータを生成するための手段は、
    (iv)前記エンハンスメントレイヤビデオブロックの内部画素位置に対応し、2つの前記異なるベースレイヤビデオブロックが異なるコーディングモードを定義する場合に前記異なるベースレイヤビデオブロック間に位置する、前記アップサンプリングビデオデータの画素位置に対して前記アップサンプリングビデオデータの第2の値を前記ベースレイヤビデオデータ中の最近隣の値を複製することによって定義するための手段
    を備える、請求項23に記載のデバイス。
  26. 前記異なるコーディングモードはイントラコーディングモードおよびインターコーディングモードを備える、請求項25に記載のデバイス。
  27. 前記コーディングするための手段は符号化するための手段または復号するための手段を備える、請求項23に記載のデバイス。
  28. 前記ベースレイヤビデオデータ中で定義される異なるベースレイヤビデオブロック間の位置に対応する前記アップサンプリングビデオデータの1つまたは複数の画素位置の値を補間することの前に、前記異なるベースレイヤビデオブロックに関連する画素値をフィルタリングするための手段をさらに備える、請求項23に記載のデバイス。
JP2009545649A 2007-01-09 2008-01-08 スケーラブルビデオコーディング用の適応アップサンプリング Expired - Fee Related JP5175303B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US88409907P 2007-01-09 2007-01-09
US60/884,099 2007-01-09
US88891207P 2007-02-08 2007-02-08
US60/888,912 2007-02-08
US11/970,413 2008-01-07
US11/970,413 US8199812B2 (en) 2007-01-09 2008-01-07 Adaptive upsampling for scalable video coding
PCT/US2008/050546 WO2008086377A1 (en) 2007-01-09 2008-01-08 Adaptive upsampling for scalable video coding

Publications (2)

Publication Number Publication Date
JP2010516199A JP2010516199A (ja) 2010-05-13
JP5175303B2 true JP5175303B2 (ja) 2013-04-03

Family

ID=39594237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009545649A Expired - Fee Related JP5175303B2 (ja) 2007-01-09 2008-01-08 スケーラブルビデオコーディング用の適応アップサンプリング

Country Status (10)

Country Link
US (1) US8199812B2 (ja)
EP (1) EP2111719B1 (ja)
JP (1) JP5175303B2 (ja)
KR (1) KR101056000B1 (ja)
CN (1) CN101578882B (ja)
BR (1) BRPI0806521A2 (ja)
CA (1) CA2672320C (ja)
RU (1) RU2419248C2 (ja)
TW (1) TWI390986B (ja)
WO (1) WO2008086377A1 (ja)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340177B2 (en) 2004-07-12 2012-12-25 Microsoft Corporation Embedded base layer codec for 3D sub-band coding
US8442108B2 (en) * 2004-07-12 2013-05-14 Microsoft Corporation Adaptive updates in motion-compensated temporal filtering
US8374238B2 (en) * 2004-07-13 2013-02-12 Microsoft Corporation Spatial scalability in 3D sub-band decoding of SDMCTF-encoded video
US7956930B2 (en) * 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
US8396134B2 (en) * 2006-07-21 2013-03-12 Vidyo, Inc. System and method for scalable video coding using telescopic mode flags
WO2008051995A2 (en) * 2006-10-23 2008-05-02 Vidyo, Inc. System and method for scalable video coding using telescopic mode flags
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
US8331451B2 (en) * 2007-07-18 2012-12-11 Samsung Electronics Co., Ltd. Method and apparatus for enhancing resolution of video image
US8750390B2 (en) * 2008-01-10 2014-06-10 Microsoft Corporation Filtering and dithering as pre-processing before encoding
US8160132B2 (en) 2008-02-15 2012-04-17 Microsoft Corporation Reducing key picture popping effects in video
US8953673B2 (en) * 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
US8195001B2 (en) 2008-04-09 2012-06-05 Intel Corporation In-loop adaptive wiener filter for video coding and decoding
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
EP2136565A1 (en) * 2008-06-19 2009-12-23 Thomson Licensing Method for determining a filter for interpolating one or more pixels of a frame, method for encoding or reconstructing a frame and method for transmitting a frame
EP2152009A1 (en) * 2008-08-06 2010-02-10 Thomson Licensing Method for predicting a lost or damaged block of an enhanced spatial layer frame and SVC-decoder adapted therefore
US8325801B2 (en) * 2008-08-15 2012-12-04 Mediatek Inc. Adaptive restoration for video coding
US9571856B2 (en) * 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
US8213503B2 (en) 2008-09-05 2012-07-03 Microsoft Corporation Skip modes for inter-layer residual video coding and decoding
WO2010041858A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for decoding a video signal
KR101680915B1 (ko) * 2008-11-25 2016-11-29 톰슨 라이센싱 비디오 인코딩 및 디코딩을 위한 희소성-기반 아티팩트 제거 필터링 방법 및 장치
WO2010090630A1 (en) * 2009-02-03 2010-08-12 Thomson Licensing Methods and apparatus for motion compensation with smooth reference frame in bit depth scalability
WO2010131903A2 (en) 2009-05-12 2010-11-18 Lg Electronics Inc. Method and apparatus for processing a video signal
KR20100123075A (ko) * 2009-05-14 2010-11-24 삼성전자주식회사 화상통화 시스템에서 스케일러빌리티 기법을 지원하기 위한 장치 및 방법
CN102577379B (zh) * 2009-10-05 2017-12-19 汤姆逊许可证公司 用于视频编码和译码中的嵌入量化参数调节的方法和装置
EP2497271B1 (en) * 2009-11-06 2020-08-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Hybrid video coding
US8705624B2 (en) * 2009-11-24 2014-04-22 STMicroelectronics International N. V. Parallel decoding for scalable video coding
JP5625342B2 (ja) * 2009-12-10 2014-11-19 ソニー株式会社 画像処理方法、画像処理装置、プログラム
JP5428886B2 (ja) * 2010-01-19 2014-02-26 ソニー株式会社 情報処理装置、情報処理方法、及びそのプログラム
US8483271B2 (en) * 2010-05-06 2013-07-09 Broadcom Corporation Method and system for 3D video pre-processing and post-processing
US8755444B2 (en) * 2010-08-06 2014-06-17 Qualcomm Incorporated Two-stage entropy decoding
JP5703781B2 (ja) 2010-09-03 2015-04-22 ソニー株式会社 画像処理装置および方法
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
EP2683167B1 (en) * 2011-02-28 2018-05-02 Fujifilm Corporation Color imaging device
US9025660B2 (en) * 2011-03-04 2015-05-05 Vixs Systems, Inc. Video decoder with general video decoding device and methods for use therewith
US8848804B2 (en) * 2011-03-04 2014-09-30 Vixs Systems, Inc Video decoder with slice dependency decoding and methods for use therewith
US9088800B2 (en) * 2011-03-04 2015-07-21 Vixs Systems, Inc General video decoding device for decoding multilayer video and methods for use therewith
CA2772894A1 (en) * 2011-05-17 2012-11-17 Her Majesty The Queen In Right Of Canada, As Represented By The Ministerof Industry, Through The Communications Research Centre Canada Image and video encoding and decoding
US20120300838A1 (en) * 2011-05-26 2012-11-29 Sharp Laboratories Of America, Inc. Low resolution intra prediction
AU2012267006B8 (en) * 2011-06-10 2015-10-29 Hfi Innovation Inc. Method and apparatus of scalable video coding
WO2013006310A1 (en) * 2011-07-01 2013-01-10 Vidyo, Inc. Loop filter techniques for cross-layer prediction
JP5810700B2 (ja) * 2011-07-19 2015-11-11 ソニー株式会社 画像処理装置及び画像処理方法
US10873772B2 (en) * 2011-07-21 2020-12-22 V-Nova International Limited Transmission of reconstruction data in a tiered signal quality hierarchy
US8948248B2 (en) * 2011-07-21 2015-02-03 Luca Rossato Tiered signal decoding and signal reconstruction
US9129411B2 (en) * 2011-07-21 2015-09-08 Luca Rossato Upsampling in a tiered signal quality hierarchy
CN103096056B (zh) 2011-11-08 2015-11-25 华为技术有限公司 矩阵编码方法与装置及解码方法与装置
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
CN110139108B (zh) 2011-11-11 2023-07-18 Ge视频压缩有限责任公司 用于将多视点信号编码到多视点数据流中的装置及方法
WO2013072484A1 (en) * 2011-11-18 2013-05-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with efficient residual handling
EP2603000B1 (en) 2011-12-08 2017-11-01 Dolby Laboratories Licensing Corporation Guided prediction-filtering in layered vdr image coding
EP2803191B1 (en) * 2012-01-13 2021-05-05 InterDigital Madison Patent Holdings Method and device for coding an image block, corresponding method and decoding device
US9860549B2 (en) * 2012-03-29 2018-01-02 Lg Electronics Inc. Inter-layer prediction method and encoding device and decoding device using same
US9894386B2 (en) * 2012-04-12 2018-02-13 Goldpeak Innovations Inc. Transform method based on block information, and apparatus using said method
SG11201407419RA (en) * 2012-05-14 2014-12-30 Luca Rossato Decomposition of residual data during signal encoding, decoding and reconstruction in a tiered hierarchy
EP2853096A4 (en) * 2012-05-21 2016-07-06 Mediatek Singapore Pte Ltd METHOD AND APPARATUS FOR FILTERING BETWEEN LAYERS FOR SCALABLE VIDEO CODING
KR102001415B1 (ko) 2012-06-01 2019-07-18 삼성전자주식회사 다계층 비디오 코딩을 위한 레이트 제어 방법, 이를 이용한 비디오 인코딩 장치 및 비디오 신호 처리 시스템
US9420280B2 (en) 2012-06-08 2016-08-16 Qualcomm Incorporated Adaptive upsampling filters
CN104322062B (zh) * 2012-06-26 2016-12-21 英特尔公司 跨层跨通道样本预测
JP5885604B2 (ja) * 2012-07-06 2016-03-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
US9843801B2 (en) 2012-07-10 2017-12-12 Qualcomm Incorporated Generalized residual prediction for scalable video coding and 3D video coding
WO2014010943A1 (ko) * 2012-07-10 2014-01-16 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
CA2807404C (en) * 2012-09-04 2017-04-04 Research In Motion Limited Methods and devices for inter-layer prediction in scalable video compression
US20140086319A1 (en) * 2012-09-25 2014-03-27 Sony Corporation Video coding system with adaptive upsampling and method of operation thereof
WO2014050554A1 (ja) * 2012-09-28 2014-04-03 シャープ株式会社 画像復号装置、および画像符号化装置
KR102257542B1 (ko) * 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US20140098880A1 (en) 2012-10-05 2014-04-10 Qualcomm Incorporated Prediction mode information upsampling for scalable video coding
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
US9357211B2 (en) * 2012-12-28 2016-05-31 Qualcomm Incorporated Device and method for scalable and multiview/3D coding of video information
GB2509704B (en) * 2013-01-04 2016-06-01 Canon Kk Method and device for processing prediction information for encoding or decoding at least part of an image
GB2509703B (en) * 2013-01-04 2016-09-14 Canon Kk Method and apparatus for encoding an image into a video bitstream and decoding corresponding video bitstream using enhanced inter layer residual prediction
US20140192880A1 (en) * 2013-01-04 2014-07-10 Zhipin Deng Inter layer motion data inheritance
KR20140092198A (ko) 2013-01-07 2014-07-23 한국전자통신연구원 계층적 비디오 부호화에서의 스케일러빌리티 정보 표현방식
RU2628133C2 (ru) * 2013-01-07 2017-08-15 Телефонактиеболагет Л М Эрикссон (Пабл) Кодирование и декодирование слайсов в изображениях видеопотока
EP2804375A1 (en) 2013-02-22 2014-11-19 Thomson Licensing Coding and decoding methods of a picture block, corresponding devices and data stream
US10284842B2 (en) * 2013-03-05 2019-05-07 Qualcomm Incorporated Inter-layer reference picture construction for spatial scalability with different aspect ratios
US9578339B2 (en) * 2013-03-05 2017-02-21 Qualcomm Incorporated Parallel processing for video coding
US9800884B2 (en) * 2013-03-15 2017-10-24 Qualcomm Incorporated Device and method for scalable coding of video information
KR101466574B1 (ko) * 2013-03-19 2014-12-02 삼성전자주식회사 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
EP2979447B1 (en) 2013-03-28 2018-01-03 Huawei Technologies Co., Ltd. Method for determining predictor blocks for a spatially scalable video codec
WO2014163467A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 랜덤 엑세스를 위한 멀티 레이어 비디오 부호화 방법 및 그 장치, 랜덤 엑세스를 위한 멀티 레이어 비디오 복호화 방법 및 그 장치
US20140321560A1 (en) * 2013-04-08 2014-10-30 Nokia Corporation Method and technical equipment for video encoding and decoding
US9762920B2 (en) * 2013-06-07 2017-09-12 Qualcomm Incorporated Dynamic range control of intermediate data in resampling process
RU2557261C2 (ru) * 2013-08-20 2015-07-20 Федеральное государственное образовательное бюджетное учреждение высшего профессионального образования Московский технический университет связи и информатики (ФГОБУ ВПО МТУСИ) Способ и устройство формирования сигналов изображения в системах цифрового телевидения стандартной и высокой четкости
TWI496456B (zh) 2013-11-19 2015-08-11 Ind Tech Res Inst 畫面間成本計算方法及畫面間成本計算裝置
US9591316B2 (en) * 2014-03-27 2017-03-07 Intel IP Corporation Scalable video encoding rate adaptation based on perceived quality
US20150381994A1 (en) * 2014-06-27 2015-12-31 Futurewei Technologies, Inc. Advanced screen content coding with improved palette table and index map coding methods
JP2016015009A (ja) * 2014-07-02 2016-01-28 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
TWI538431B (zh) 2014-09-02 2016-06-11 宏正自動科技股份有限公司 地面數位視訊廣播系統及其調變方法
JP6408884B2 (ja) * 2014-11-28 2018-10-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
GB2538997A (en) * 2015-06-03 2016-12-07 Nokia Technologies Oy A method, an apparatus, a computer program for video coding
EP3354026B1 (en) 2015-09-25 2021-09-15 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation
CA2999700C (en) 2015-09-25 2022-06-21 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation
AU2015410095C1 (en) 2015-09-25 2020-01-16 Huawei Technologies Co., Ltd. Adaptive sharpening filter for predictive coding
BR112018006031A2 (pt) 2015-09-25 2018-10-09 Huawei Tech Co Ltd codificador de vídeo, decodificador de vídeo e métodos para codificação e decodificação preditiva
MY187403A (en) 2015-09-25 2021-09-22 Huawei Tech Co Ltd Apparatus and method for video motion compensation with selectable interpolation filter
WO2017084011A1 (zh) * 2015-11-16 2017-05-26 华为技术有限公司 一种视频平滑方法及装置
KR102325395B1 (ko) 2015-11-17 2021-11-10 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 코딩 방법 및 장치
GB2552323B (en) 2016-07-18 2020-04-29 Imagination Tech Ltd Mip map compression
CN107959855B (zh) * 2016-10-16 2020-02-14 华为技术有限公司 运动补偿预测方法和设备
US20220201307A1 (en) * 2020-12-23 2022-06-23 Tencent America LLC Method and apparatus for video coding

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2201654C2 (ru) 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
US6639943B1 (en) 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US6873655B2 (en) * 2001-01-09 2005-03-29 Thomson Licensing A.A. Codec system and method for spatially scalable video data
US6925120B2 (en) * 2001-09-24 2005-08-02 Mitsubishi Electric Research Labs, Inc. Transcoder for scalable multi-layer constant quality video bitstreams
KR100631777B1 (ko) * 2004-03-31 2006-10-12 삼성전자주식회사 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
KR100586882B1 (ko) * 2004-04-13 2006-06-08 삼성전자주식회사 모션 스케일러빌리티를 지원하는 코딩 방법 및 장치
AU2005262409A1 (en) 2004-07-01 2006-01-19 Qualcomm Incorporated Method and apparatus for using frame rate up conversion techniques in scalable video coding
DE102004059978B4 (de) * 2004-10-15 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium
KR100664929B1 (ko) * 2004-10-21 2007-01-04 삼성전자주식회사 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치
KR20060043115A (ko) 2004-10-26 2006-05-15 엘지전자 주식회사 베이스 레이어를 이용하는 영상신호의 엔코딩/디코딩 방법및 장치
EP1694074A1 (en) 2005-02-18 2006-08-23 Thomson Licensing Process for scalable coding of images
WO2006058921A1 (en) 2004-12-03 2006-06-08 Thomson Licensing Method for scalable video coding
KR100703734B1 (ko) 2004-12-03 2007-04-05 삼성전자주식회사 Dct 업샘플링을 이용한 다 계층 비디오 인코딩/디코딩방법 및 장치
EP1829380A1 (en) 2004-12-13 2007-09-05 Koninklijke Philips Electronics N.V. Scalable picture encoding
KR100679035B1 (ko) 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
WO2006087314A1 (en) 2005-02-18 2006-08-24 Thomson Licensing Method for deriving coding information for high resolution images from low resoluton images and coding and decoding devices implementing said method
US7961963B2 (en) 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
US7876833B2 (en) 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
EP1727372A1 (en) 2005-05-27 2006-11-29 Thomson Licensing Method and apparatus for encoding and decoding video data,
CN101248674B (zh) 2005-07-11 2013-12-04 汤姆森特许公司 宏块自适应层间内纹理预测的方法和设备
US8023569B2 (en) * 2005-12-15 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for block-based residual upsampling
US7956930B2 (en) * 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
JP4883526B2 (ja) * 2006-08-30 2012-02-22 Nltテクノロジー株式会社 電気泳動型表示装置及びその製造方法
US20080095235A1 (en) * 2006-10-20 2008-04-24 Motorola, Inc. Method and apparatus for intra-frame spatial scalable video coding
US8126054B2 (en) * 2008-01-09 2012-02-28 Motorola Mobility, Inc. Method and apparatus for highly scalable intraframe video coding

Also Published As

Publication number Publication date
CN101578882A (zh) 2009-11-11
RU2419248C2 (ru) 2011-05-20
KR20090108077A (ko) 2009-10-14
KR101056000B1 (ko) 2011-08-11
CA2672320C (en) 2013-04-30
EP2111719A1 (en) 2009-10-28
WO2008086377A1 (en) 2008-07-17
BRPI0806521A2 (pt) 2014-04-22
US20080165848A1 (en) 2008-07-10
TWI390986B (zh) 2013-03-21
TW200840363A (en) 2008-10-01
CA2672320A1 (en) 2008-07-17
EP2111719B1 (en) 2014-08-13
JP2010516199A (ja) 2010-05-13
US8199812B2 (en) 2012-06-12
RU2009130382A (ru) 2011-02-20
CN101578882B (zh) 2012-11-07

Similar Documents

Publication Publication Date Title
JP5175303B2 (ja) スケーラブルビデオコーディング用の適応アップサンプリング
KR101065227B1 (ko) 모션 보상 예측을 위해 적응 필터링을 이용하는 비디오 코딩
TWI425837B (zh) 用於編碼區塊樣式之可變長度編碼技術
KR101247452B1 (ko) 정제 계수 코딩을 위한 비디오 블록 형식에 기초한 가변 길이 코딩 테이블 선택
KR101067308B1 (ko) 정제 계수 코딩을 위한 블록 형식 통계치에 기초한 가변 길이 코딩 테이블 선택
JP5301712B2 (ja) スケーラブルビデオコーディング拡張レイヤにおけるリファインメントおよびシグニフィカント係数の組み合わせられたランレングスコーディング

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120215

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120314

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130104

R150 Certificate of patent or registration of utility model

Ref document number: 5175303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees