JP2016535465A - 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント - Google Patents

多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント Download PDF

Info

Publication number
JP2016535465A
JP2016535465A JP2016506630A JP2016506630A JP2016535465A JP 2016535465 A JP2016535465 A JP 2016535465A JP 2016506630 A JP2016506630 A JP 2016506630A JP 2016506630 A JP2016506630 A JP 2016506630A JP 2016535465 A JP2016535465 A JP 2016535465A
Authority
JP
Japan
Prior art keywords
block
image
base layer
ilr
layer image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016506630A
Other languages
English (en)
Other versions
JP6360154B2 (ja
Inventor
ユーウェン ホー
ユーウェン ホー
イエン イエ
イエン イエ
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2016535465A publication Critical patent/JP2016535465A/ja
Application granted granted Critical
Publication of JP6360154B2 publication Critical patent/JP6360154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオデバイスは、スケーラブルビットストリームのエンハンスメントレイヤ画像を予測する助けとなるように、エンハンスされたインターレイヤ基準(E−ILR)画像を生成し得る。E−ILR画像は、1または複数のE−ILRブロックを含み得る。E−ILRブロックは、差分方法、残差方法、双予測方法、および/または単予測方法を使用して生成され得る。ビデオデバイスは、第1の時間インスタンスを決定し得る。ビデオデバイスは、第1の時間インスタンスによって特徴付けられた第1のベースレイヤ画像のブロックを、第1の時間インスタンスによって特徴付けられたエンハンスメントレイヤ画像のブロックから差し引いて、第1の時間インスタンスによって特徴付けられた差分ブロックを生成し得る。ビデオデバイスは、動き補償を差分ブロック上で実行し、および動き補償された差分画像を、第2の時間インスタンスによって特徴付けられた第2のベースレイヤ画像のブロックに追加し、E−ILRブロックを生成し得る。

Description

本発明は、多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメントに関する。
過去20年間にわたって、デジタルビデオ圧縮技術は、効率的なデジタルビデオ通信、分配、および、消費を可能にするために、開発および標準化されてきた。商業的に広く配備されている大部分の標準、MPEG−2およびH.264(MPEG−4パート10)などは、ISO/IECおよびITU−Tにより開発されている。ビデオ圧縮技術の台頭および成熟に起因して、高効率ビデオコーディング(HEVC)が開発され得る。
分解能および計算能力の両方での、スマートフォンおよびタブレットの成長によって、ビデオチャット、移動ビデオ記録および共有、ならびに、ビデオストリーミングなどの追加的なビデオアプリケーションは、異種環境でのビデオ送信を要する場合がある。様々な消費者デバイス(たとえば、PC、スマートフォン、タブレット、TVなど)を考慮する、3スクリーンおよびNスクリーンなどのシナリオは、計算能力、メモリ/記憶サイズ、ディスプレイ解像度、ディスプレイフレームレートなどの点から、多種多様な能力を有するデバイス上でのビデオ消費に対処し得る。ネットワークおよび送信チャネルは、パケット損失レート、利用可能なチャネル帯域幅、バーストエラーレートなどの点から、多種多様な特性を有し得る。ビデオデータは、ワイヤードネットワークおよびワイヤレスネットワークの組み合わせによって送信され得、そのことが、基礎となる送信チャネル特性をさらに複雑にする場合がある。
スケーラブルビデオコーディングは、異種ネットワークにわたる、異なる能力を有するデバイス上で動作するビデオアプリケーションに対する体感の品質を改善するための解を提供し得る。スケーラブルビデオコーディングは、最も高い表現(たとえば、時間的分解能、空間的分解能、品質など)で1回信号を符号化し得、クライアントデバイス上で動作するアプリケーションにより必要とされる特定のレートおよび表現に依存する、ビデオストリームのサブセットからの復号を可能にし得る。スケーラブルビデオコーディングは、非スケーラブル解と比較されると、帯域幅およびストレージを節約し得る。MPEG−2ビデオ、H.263、MPEG4ビジュアル、および、H.264などの、ただしそれらに制限されないビデオ標準は、スケーラビリティの何らかのモードをサポートするツールおよび/またはプロファイルを有し得る。
ビデオコーディング方法を実装するためのシステム、方法、および、手段が提供される。ビデオデバイス(たとえば、符号化器および/または復号器を含み得る)は、たとえば、スケーラブルビットストリームのエンハンスメントレイヤ(EL:enhancement layer)画像(たとえば、および/または、ELブロック)を予測する助けとなるように、1または複数のエンハンスされたインターレイヤ基準(E−ILR:enhanced inter-layer reference)ブロックを含むE−ILR画像を生成し得る。ビデオデバイスは、たとえば、復号器に、E−LIR処理を実行することを指示し得る、E−ILR対応のフラグを受信し得る。たとえばビデオデバイスは、差分エンハンスメント方法を使用してE−ILRブロックを生成し得る。ビデオデバイスは、以下の1または複数を実行するように構成され得るプロセッサを含み得る。プロセッサは、第1の時間インスタンスを、第2の時間インスタンスにより特徴付けられる第2のベースレイヤ画像に関連付けられたベースレイヤ動き情報に基づいて決定し得る。ベースレイヤ動き情報は、ダウンサンプリングされたベースレイヤブロック、および/または、アップサンプリングされたベースレイヤブロックの、動き情報クラスおよび/または動きベクトルを含み得る。
プロセッサは、第1の時間インスタンスにより特徴付けられる第1のベースレイヤ画像のブロックを、第1の時間インスタンスにより特徴付けられるエンハンスメントレイヤ画像のブロックから差し引いて、第1の時間インスタンスにより特徴付けられる差分ブロックを生成し得る。第1のベースレイヤ画像のブロックは、第1のベースレイヤ画像のアップサンプリングされたブロック、または、ダウンサンプリングされたブロックであり得る。プロセッサは、動き補償(motion compensation)を差分ブロック上で実行し得る。動き補償は、差分ブロック上で、たとえば、ベースレイヤとエンハンスメントレイヤとの間の空間的比率による、第2のベースレイヤ画像のブロックに関連付けられたベースレイヤ動き情報(たとえば、スケーリングされたベースレイヤ動き情報)を使用して実行され得る。
プロセッサは、動き補償された差分ブロックに重みを掛け合わせ得る。重みは、0以上、かつ1以下であり得る。プロセッサは、オフセットを、動き補償された差分ブロックに追加し得る。プロセッサは、動き補償された差分画像を、第2の時間インスタンスにより特徴付けられる第2のベースレイヤ画像のブロックに追加して、第2の時間インスタンスにより特徴付けられるE−ILRブロックを生成し得る。第2のベースレイヤ画像のブロックは、第2のベースレイヤ画像のアップサンプリングされたブロック、または、ダウンサンプリングされたブロックであり得る。プロセッサは、E−ILRブロックを備える、第2の時間インスタンスにより特徴付けられるE−ILR画像を生成し得る。プロセッサは、第2の時間インスタンスにより特徴付けられるエンハンスメントレイヤ画像を、第2の時間インスタンスにより特徴付けられる、E−ILR画像、および/または、アップサンプリングされたベースレイヤ画像を使用して予測し得る。
ビデオデバイスは、E−ILRブロックを、残差(residual)エンハンスメント方法を使用して生成し得る。ビデオデバイスは、以下の1または複数を実行するように構成され得るプロセッサを含み得る。プロセッサは、第1の時間インスタンスを、第2の時間インスタンスにより特徴付けられる第2のベースレイヤ画像に関連付けられたベースレイヤ動き情報に基づいて決定し得る。
プロセッサは、第1の時間インスタンスにより特徴付けられる第1のベースレイヤ画像のブロックを、第2のベースレイヤ画像のブロックから差し引いて、残差を生成し得る。プロセッサは、動き補償を残差上で実行し得る。動き補償は、残差上で、第2のベースレイヤ画像のブロックに関連付けられたベースレイヤ動き情報を使用して実行され得る。プロセッサは、残差に重みを掛け合わせ得る。プロセッサは、オフセットを残差に追加し得る。
プロセッサは、残差を、第1の時間インスタンスにより特徴付けられるエンハンスメントレイヤ画像のブロックに追加して、第2の時間インスタンスにより特徴付けられる、エンハンスされたインターレイヤ基準(E−ILR)ブロックを生成し得る。プロセッサは、E−ILRブロックを備える、第2の時間インスタンスにより特徴付けられるE−ILR画像を生成し得る。プロセッサは、第2の時間インスタンスにより特徴付けられるエンハンスメントレイヤ画像を、第2の時間インスタンスにより特徴付けられる、E−ILR画像、および/または、アップサンプリングされたベースレイヤ画像を使用して予測し得る。第1のベースレイヤ画像のブロックは、第1のベースレイヤ画像のアップサンプリングされたブロック、または、ダウンサンプリングされたブロックであり得る。第2の第1のベースレイヤ画像のブロックは、第2のベースレイヤ画像のアップサンプリングされたブロック、または、ダウンサンプリングされたブロックであり得る。
ビデオデバイスは、インターレイヤ基準ブロック(たとえば、E−ILRブロック)を、双予測(bi-prediction)を使用して生成し得る。ビデオデバイスは、以下の1または複数を実行するように構成され得るプロセッサを含み得る。プロセッサは、第1の時間インスタンスを、第3の時間インスタンスにより特徴付けられる第3のベースレイヤ画像に関連付けられた第1のベースレイヤ動き情報に基づいて決定し得る。プロセッサは、第2の時間インスタンスを、第3の時間インスタンスにより特徴付けられる第3のベースレイヤ画像に関連付けられた第2のベースレイヤ動き情報に基づいて決定し得る。プロセッサは、第3の時間インスタンスにより特徴付けられる、エンハンスされたインターレイヤ基準(E−ILR)ブロックを、第1の時間インスタンスにより特徴付けられる第1のベースレイヤ画像のブロック、および、第2の時間インスタンスにより特徴付けられる第2のベースレイヤ画像のブロックを使用して生成し得る。第1のベースレイヤ画像のブロックは、第1のベースレイヤ画像のアップサンプリングされたブロック、または、ダウンサンプリングされたブロックであり得る。第2の第1のベースレイヤ画像のブロックは、第2のベースレイヤ画像のアップサンプリングされたブロック、または、ダウンサンプリングされたブロックであり得る。
プロセッサは、第1のベースレイヤ画像のブロックを、第2のベースレイヤ画像のブロックに追加して、組み合わされたベースレイヤブロックを作成することにより、E−ILRブロックを生成するように構成され得る。プロセッサは、組み合わされたベースレイヤブロックを2により分割して、平均化されたベースレイヤブロックを生成し得る。プロセッサは、第1の時間インスタンスにより特徴付けられる第1のエンハンスメントレイヤ画像のブロックを、第2の時間インスタンスにより特徴付けられる第2のエンハンスメントレイヤ画像のブロックに追加して、組み合わされたエンハンスメントレイヤブロックを作成し得る。プロセッサは、組み合わされたエンハンスメントレイヤブロックを2により分割して、平均化されたエンハンスメントレイヤブロックを生成し得る。プロセッサは、平均化されたベースレイヤブロックを、平均化されたエンハンスメントレイヤブロックから差し引いて、差分ブロックを生成し得る。プロセッサは、動き補償を差分ブロック上で実行し得る。プロセッサは、動き補償された差分ブロックに重みを掛け合わせ得る。プロセッサは、動き補償された差分ブロックを、第3の時間インスタンスにより特徴付けられるベースレイヤ画像のブロックに追加して、E−ILRブロックを生成し得る。第3の第1のベースレイヤ画像のブロックは、第3のベースレイヤ画像のアップサンプリングされたブロック、または、ダウンサンプリングされたブロックであり得る。
N個のレイヤを伴う例示的なスケーラブルビデオコーディングシステムの線図である。 多重レイヤビデオコーディングを使用する立体(たとえば、2ビュー)ビデオコーディングに対する、時間的およびインターレイヤ予測の例の線図である。 例示的な単一レイヤ符号化器の線図である。 例示的な単一レイヤ復号器の線図である。 例示的な2レイヤスケーラブル符号化器の線図である。 例示的な2レイヤスケーラブル復号器の線図である。 インターレイヤ画像(ILP)処理および管理ユニットの例の線図である。 インターレイヤ基準画像の例示的な配置の線図である。 単予測(uni-prediction)コーディングされるブロックを使用するE−ILRブロックの生成の例の線図である。 差分画像、および、単予測コーディングされるブロックを使用するE−ILRブロックの生成の例の線図である。 双予測コーディングされるブロックを使用するE−ILRブロックの生成の例の線図である。 単予測モードに対する、基準インデックスを、重みリストでのインデックスにマッピングするルックアップ表に対するセットアップの例のフローチャートである。 双予測モードに対する、基準インデックスを、重みリストでのインデックスにマッピングするルックアップ表に対するセットアップの例のフローチャートである。 単予測モードに対する、重み推定を算出することの例のフローチャートである。 双予測モードに対する、重み推定を算出することの例のフローチャートである。 ILRエンハンスメントに対する、領域に基づく重みの例の線図である。 基準画像リスト内のエンハンスされたILR画像の例示的な配置の線図である。 ブロックモード符号化に対するスキャンパターンの例の線図である。 水平スキャンによってコーディングされる2Dマップの例の線図である。 1または複数の開示される実施形態が実装され得る、例示的な通信システムのシステム線図である。 図20Aで例示的な通信システムの内部で使用され得る、例示的なワイヤレス送受信ユニット(WTRU)のシステム線図である。 図20Aで例示的な通信システムの内部で使用され得る、例示的な無線アクセスネットワーク、および、例示的なコアネットワークのシステム線図である。 図20Aで例示的な通信システムの内部で使用され得る、別の例示的な無線アクセスネットワーク、および、別の例示的なコアネットワークのシステム線図である。 図20Aで例示的な通信システムの内部で使用され得る、別の例示的な無線アクセスネットワーク、および、別の例示的なコアネットワークのシステム線図である。
例示的実施形態の詳細に述べられる説明が、次に、様々な図への参照によって説明されることになる。本説明は、可能な実装の詳細に述べられる例を提供するが、詳細は、例示的なものであることが意図され、用途の範囲を決して制限しないということに留意されたい。さらに、図は、例示的なものとするフローチャートを示す場合がある。他の実施形態が使用される場合がある。メッセージの順序は、適切である場合は変動させられ得る。メッセージは、必要とされないならば除外され得、追加的なフローが追加され得る。
MPEG−2ビデオ、H.263、MPEG4ビジュアル、および、H.264などのビデオ標準は、スケーラビリティモードをサポートし得るツールおよび/またはプロファイルを有し得る。高効率ビデオコーディング(HEVC)スケーラブル拡張は、空間的スケーラビリティ(たとえば、スケーラブルビットストリームは、1つより多い空間的分解能での信号を含み得る)、および/または、品質スケーラビリティ(たとえば、スケーラブルビットストリームは、1つより多い品質レベルでの信号を含み得る)をサポートし得る。MPEGは、ビュースケーラビリティをサポートし得る(たとえば、スケーラブルビットストリームは、2Dおよび3Dビデオ信号を含み得る)。
図1は、N個のレイヤを伴う例示的なスケーラブルビデオコーディングシステム100の線図である。レイヤ1(たとえば、ベースレイヤ)により表されることになる、空間的および/または時間的信号分解能は、ダウンサンプラ101での入力ビデオ信号120のダウンサンプリングにより生成され得る。符号化器121での符号化ステージでは、量子化器(たとえば、Q)の適切なセッティングが、符号化されたベースレイヤビットストリーム122の或る品質レベルにつながり得る。1または複数のより高いレイヤ、たとえば、ベースレイヤ再構築(たとえば、Y)を符号化するために、より高いレイヤ分解能レベルの近似が、より高いレイヤの符号化および/または復号で使用され得る。符号化されたベースレイヤは、復号器123により、ベースレイヤ再構築信号を作成するために復号され得る。アップサンプリングユニット110は、レイヤ2の分解能へのベースレイヤ再構築信号のアップサンプリングを実行し得る。アップサンプリングされたベースレイヤ再構築信号は、次いで、入力ビデオ信号120のダウンサンプリングされたバージョンから差し引かれ得る。たとえば入力ビデオ信号120は、ダウンサンプラ102でダウンサンプリングされ得、次いで、アップサンプリングされたベースレイヤ再構築信号が、ダウンサンプリングされた入力ビデオ信号から、124で、差信号を生成するために差し引かれ得る。差信号は、レイヤ2符号化器125で、レイヤ2ビットストリーム126を作成するために符号化され得る。ダウンサンプリングおよびアップサンプリングは、レイヤ(たとえば、レイヤ1、2、…N)の各々で全体を通して実行され得る。ダウンサンプリングおよびアップサンプリング比率は、2つの与えられるレイヤ間のスケーラビリティの規模に依存して異なり得る。
図1で示すように、より高いレイヤn(たとえば、2≦n≦N)に対して、差分信号が、アップサンプリングされた、より低いレイヤ信号(たとえば、レイヤn−1信号)を、現在のレイヤn信号から差し引くことにより生成され得、差信号は符号化され得る。2つのレイヤ(たとえば、n1およびn2)により表されるビデオ信号が同じ空間的分解能を有するならば、対応するダウンサンプリングおよびアップサンプリング動作は回避され得る。レイヤn(たとえば、1≦n≦N)または複数のレイヤは、より高いレイヤからの復号情報を使用することなく復号され得る。図1でのシステムにより使用され得るような、ベースレイヤを除くレイヤの各々に対する、残差信号(たとえば、2つのレイヤ間の差信号)のコーディングに依拠することが、ビジュアルアーチファクトを引き起こす場合がある。ビジュアルアーチファクトは、残差信号を、その動的範囲を限定するように量子化および/もしくは正規化するプロセス、残差のコーディングの間に実行される追加的な量子化により、ならびに/または、残差信号での動き推定は従来型の動き推定と異なり得るので、引き起こされ得る。
スケーラブルビデオコーディング(SVC)は、H.264の拡張であり得、それは、部分的ビットストリームの符号化、送信、および/または、復号が、部分的ビットストリームのレートを与えられると、たとえば、より低い時間的分解能、より低い空間的分解能、低減される忠実度、および/または類するものを伴い、一方で、相対的な高い再構築品質を保持する、ビデオサービスを提供することを可能にし得る。SVCの設計特徴は、単一ループ復号と呼ばれ得る。単一ループ復号ではSVC復号器は、動き補償ループを、復号されているレイヤでセットアップし得、動き補償ループを、他のより低いレイヤでセットアップする必要はない場合がある。たとえば、ビットストリームが2つのレイヤ、レイヤ1(たとえば、ベースレイヤ)およびレイヤ2(たとえば、エンハンスメントレイヤ)を含み、復号器がレイヤ2ビデオを再構築するならば、復号された画像バッファおよび/または動き補償された予測は、レイヤ2に対して(たとえば、および、レイヤ2が依存するレイヤ1、ベースレイヤに対してではなく)セットアップされ得る。SVCは、フルに再構築されることになる、より低いレイヤからの基準画像を有する必要はない場合がある。そのようなセットアップは、復号器での計算的複雑度および/またはメモリ複雑度を低減し得る。単一ループ復号は、制約されるインターレイヤテクスチャ予測により実現され得、その場合たとえば、与えられるレイヤでの現在のブロックに対して、より低いレイヤからの空間的テクスチャ予測は、対応する、より低いレイヤブロックが、限定されるイントラモードでコーディングされるならば許され得る。より低いレイヤブロックがイントラモードでコーディングされるとき、それは、動き補償動作、および/または、復号された画像バッファなしで再構築され得る。
SVCは、より低いレイヤからの、動きベクトル予測、残差予測、モード予測などの追加的なインターレイヤ予測を使用して、たとえば、エンハンスメントレイヤのレート歪み効率を改善し得る。インターレイヤ予測は、画像レベルILP、ブロックレベルILP、および/または類するものを指し得る。単一ループ復号は、復号器での計算的複雑度および/またはメモリ複雑度を低減し得るが、単一ループ復号は、満足のゆく性能を実現するためにブロックレベルインターレイヤ予測方法に重く依拠することにより、実装複雑度を増大し得る。単一ループ復号制約を課すことにより招かれる性能不利に対して補償するために、符号化器設計および計算複雑度が、所望される性能が実現され得るように増大され得る。
マルチビュービデオコーディング(MVC:multi-view video coding)は、H.264の拡張である。MVCは、ビュースケーラビリティを提供し得る。ビュースケーラビリティではベースレイヤビットストリームは、従来型の2Dビデオを再構築するために復号され得る。追加的なエンハンスメントレイヤは、同じビデオ信号の他のビュー表現を再構築するために復号され得る。ビューの各々が、一体で組み合わされ、適正な3Dディスプレイにより表示されるとき、ユーザは、3Dビデオを、たとえば適正な深度知覚を伴って体感し得る。
図2は、MVCを使用して、左ビュー(たとえば、レイヤ1)201、および、右ビュー(たとえば、レイヤ2)202を伴う立体ビデオをコーディングする、例示的な予測構造200の線図である。図2での左ビュービデオ201は、IBBP予測構造によってコーディングされ得る。右ビュービデオ202は、IBBP予測構造によってコーディングされ得る。右ビュー202では、左ビュー201での第1のI画像204と並置される第1の画像203は、P画像として符号化され得る。右ビュー202での他の画像は、B画像として符号化され得、たとえば、第1の予測は、右ビュー202での時間的基準から発生し、第2の予測は、左ビュー201でのインターレイヤ基準から発生する。立体3D TV(たとえば、3Dメガネを使用する)は、3Dコンテンツ(たとえば、映画、ライブのスポーツなど)を表示し得る。SVCとは違い、MVCは、単一ループ復号特徴をサポートしない場合がある。右ビュー(たとえば、レイヤ2)ビデオ202の復号は、たとえば図2に示されるような、利用可能であることになる左ビュー(たとえば、レイヤ1)ビデオ201での画像を使用し得る。したがって動き補償ループが、両方のビュー/レイヤで実行され得る。MVCは、H.264/AVCに対して、高レベル構文変化を含み得、および/または、何らのブロックレベル変化も内包し得ない。MVCは、図2での例を拡張して、多重のビューにわたるインターレイヤ予測を実行することにより、2つより多いビューのコーディングをサポートし得る。
3Dビデオ(たとえば、立体3Dビデオ)は、2つのビュー、たとえば左ビューおよび右ビューを含み得る。立体3Dビデオコンテンツ配信は、2つのビューを1つのフレームにパックおよび/または多重化すること(たとえば、フレーム互換と呼ばれ得る)、ならびに、パックされたビデオを標準(たとえば、H.264/AVC)によって圧縮および送信することにより実現され得る。受信器側では、復号の後、フレームはアンパックされ、2つのビューとして表示され得る。ビューの多重化は、時間的ドメインおよび/または空間的ドメインで実行され得る。空間的ドメインで実行されるとき、2つのビューは、2の因子により空間的にダウンサンプリングされ、たとえば同じ画像サイズを維持するために、様々な配置構成によりパックされ得る。たとえばサイドバイサイド配置構成は、ダウンサンプリングされた左ビューを画像の左半分上に、および、ダウンサンプリングされた右ビューを画像の右半分上に置き得る。他の配置構成は、トップアンドボトム、ラインバイライン、チェッカーボード、および類するものを含み得る。特定の配置構成が、フレーム互換3Dビデオを実現するために使用され得、フレームパッキング配置構成SEIメッセージにより伝達され得る。そのような配置構成は、帯域幅所要量での最小量の増大を伴う(たとえば、パックされたフレームは圧縮するのが困難であり得るので、多少の増大は存在し得る)3D配信を実現し得るが、空間的ダウンサンプリングは、エイリアシングをビューで引き起こし得、3Dビデオのビジュアル品質およびユーザ体感を低減し得る。スケーラブル拡張は、フレーム互換(たとえば、同じフレーム内にパックされる2つのビュー)ベースレイヤビデオに提供され得、1または複数のエンハンスメントレイヤは、改善される3D体感のためのフル分解能ビューを復元するために提供され得る。フル分解能MFCを可能にするための基礎となる技術は、空間的スケーラビリティ技術に関係付けられ得る。
3DVと呼ばれ得る、3Dスケーラブルビデオコーディングが提供され得る。自動立体ディスプレイおよびアプリケーションは、メガネなしの3D体感を可能とし得る。メガネなしの3D体感を実現するために、2つより多いビューが必要とされ得る。いくつかのビュー(たとえば、9つのビューまたは10個のビュー)をコーディングすることは不経済であり得る。相対的に大きな視差を伴う、より少ないビュー(たとえば、2つまたは3つのビュー)を、ビューの深度情報を提供する深度マップと一体でコーディングするハイブリッド手法が提供され得る。ディスプレイ側では、コーディングされたビューおよび深度マップが復号され得、残るビューは、復号されたビューおよびそれらの深度マップを使用して、ビュー合成技術を使用して生成され得る。3DVは、様々な方法を使用して、たとえば、H.264/AVC、MVC、および/または、HEVC標準の組み合わせを使用して、ビューおよび深度マップをコーディングし得る。ベースレイヤは、1つの標準(たとえば、H.264/AVC)によってコーディングされ得、1または複数のエンハンスメントレイヤは、別の標準(たとえば、HEVC)によってコーディングされ得る。
表1は、本明細書で論考されるスケーラビリティのタイプ、および、これらのスケーラビリティをサポートし得る対応する標準を示す。表1で示すように、ビット深度スケーラビリティおよびクロマフォーマットスケーラビリティは、ビデオフォーマット(たとえば、8ビットビデオより高い、および、YUV4:2:0より高いクロマサンプリングフォーマット)に結び付けられ得る。
様々な設計が、HEVCスケーラブル拡張に対して提供され得る。たとえばHEVCスケーラブル拡張は、インターレイヤ基準(ILR)画像に基づく(たとえば、RefIdxと呼ばれ得る)、および/または、ILRブロックに基づく(たとえば、IntraBLと呼ばれ得る)ものであり得る。RefIdxは、インターレイヤ予測(ILP)プロセスを追加して、インターレイヤ基準画像を生成し得る。RefIdxは、エンハンスメントレイヤ(EL)符号化および/または復号プロセスに対して低レベル変化を使用しない場合がある。ELコーデック設計は、たとえば、何らかの高レベル変化(たとえば、基準リスト構築)を伴って、単一レイヤHEVCコーデックの設計を再使用し得る。IntraBLは、コーディングブロックレベルでのコーディングモードを追加して、再構築された画像および動きを含むベースレイヤからの情報を活用し得る。
インターレイヤ予測に基づくプロセス(たとえば、RefIdxのプロセスであり得る)では、1または複数のインターレイヤ基準(ILR)画像が、1または複数のベースレイヤ(BL)再構築された画像から生成され得る。ILR画像は、EL符号化および復号に対して使用される長期基準画像として特色付けられ得る。ILPプロセスは、BL再構築された画像を、ELの分解能にアップサンプリングすることを含み得る。ILPプロセスは、(たとえば、時間的に並置されるBL画像の)BL動き情報を、ILR画像のそれにマッピングすることを含み得る。クロスプレーンフィルタリング、エッジガイデッド(edge guided)処理、および類するものなどの、ただしそれらに制限されない様々な技術が、アップサンプリングされたILR画像品質を改善するために使用され得る。動きマッピング技術が、ELの動き予測に対して使用され得るILR画像の動き情報を改善するために使用され得る。ILR画像が、EL画像の、たとえば、並置される(たとえば、時間的に並置される)EL画像の予測に対して使用され得る。
ILR画像の高周波数信号が、アップサンプリングされたBL再構築された画像(たとえば、BL再構築された画像のみ)を使用することにより回復されることは、たとえば、BLで欠落している場合があり、したがって、アップサンプリングされたBL基準画像に含まれ得ない高周波数情報のために、行われ得ない。欠落している高周波数情報は、たとえば、2つのレイヤが異なる空間的分解能を有し得るときの、BLソース画像を(たとえば、符号化器側で)生成するときの、高分解能信号からベースレイヤの分解能への入力ビデオストリームのダウンサンプリングに起因するものであり得る。欠落している高周波数情報は、BLを入力ビデオストリームからコーディングするときに実行される量子化に起因するものであり得る。ELでの時間的再構築された画像は、高周波数情報(たとえば、高周波数情報の小部分)を有し得る。したがって高周波数情報は、EL時間的再構築された画像を使用して回復され得る。
RefIdx枠組での差分コーディングが使用され得る。差分画像は、アップサンプリングされたBL画像を、再構築されたEL画像(たとえば、並置される再構築されたEL画像)から差し引くことにより生成され得る。差分画像は、EL基準画像リストに挿入され得る。差分コーディングは、たとえば本明細書で説明されるような、重み付けされる予測を使用し得る。差分画像は、ベースレイヤ画像をELの分解能にアップサンプリングすることにより生成される基準画像とは異なり得る。差分画像は、差分コーディングモードに対して(たとえば、差分コーディングモードに対してのみ)使用され得る。基準リストのサイズ制限のために、符号化器は、それが適用し得る差分画像の数に制限され得る。インターレイヤ予測およびELインター予測を組み合わせる予測方法が使用され得る。インターレイヤ予測およびELインター予測を組み合わせる予測方法は、IntraBL体系に基づき得、および/または、ELコーディングに対するブロックレベル変化を要し得る。
方法、システム、および、手段は、たとえば、アップサンプリングされたBL画像、および、時間的再構築されたEL画像を、動き補償によって組み合わせることによる、インターレイヤ基準画像のエンハンスメントを提供する。RefIdx枠組は、エンハンスされたインターレイヤ基準画像が、たとえば、それを長期基準として特色付けることにより、正規基準画像として扱われ得るように使用され得る。
図3は、例示的なブロックに基づく単一レイヤビデオ符号化器300の線図である。単一レイヤ符号化器300は、空間的予測(たとえば、イントラ予測)および/または時間的予測(たとえば、インター予測、および/または、動き補償された予測)を用いて、入力ビデオ信号を予測して、たとえば、効率的な圧縮を実現し得る。符号化器300は、入力ビデオストリーム302を、たとえばブロック単位で受信し得る。たとえば符号化器は、入力ビデオストリーム302の1または複数の画像をブロックに区画し、1または複数のブロックを、たとえば1つずつ符号化し得る。符号化器300は、入力ビデオ302のビデオブロックを、モード判断および他の符号化器制御論理ユニット340、空間的予測ユニット330、ならびに/または、動き予測ユニット332に送出し得る。モード判断論理ユニット340は、予測の最も適した形式を、たとえば、レートおよび/または歪み考慮などの或る判定基準に基づいて決定するために使用され得る。
符号化器300は、予測残差318を、加算器316で、入力ビデオストリーム302のビデオブロック、および、予測信号338(たとえば、予測ブロック)を使用して生成し得る。予測信号338は、モード判断論理ユニット340により、たとえば、現在のブロックに対する予測の決定された形式に基づいて決定され得る。予測残差318は、入力信号302と予測信号338との間の差信号であり得る。
符号化器300は、予測残差318を、変換ユニット304および量子化ユニット306でそれぞれ、変換および量子化し得る。予測残差318を量子化することを変換することにより、符号化器300は、残差係数ブロック324を生成し得る。残差係数ブロック324は、量子化された残差と呼ばれ得る。残差係数ブロック324は、エントロピーコーダ308で、モード情報(たとえば、イントラまたはインター予測)、動き情報、および/または、予測情報(たとえば、動きベクトル、基準画像インデックス、イントラ予測モードなど)328と組み合わされ、圧縮され得る。動き情報は、ブロックの動き情報クラス(たとえば、動き情報が関連付けられる基準画像のインデックス)、および、ブロックの動きベクトル(たとえば、動きの量)を含み得る。エントロピーコーダ308は、残差係数ブロック324、ならびに、コーディングモード、動き情報、および/または、予測情報328を使用して、出力ビデオビットストリーム320を生成し得る。出力ビデオビットストリーム320は、複数の画像のコーディングされた情報を含み得る。画像は、1もしくは複数のブロック、または、1もしくは複数のサイズを含み得る。ブロックは、任意のサイズ、たとえば64x64、32x32、16x16、8x8、4x4、矩形などであり得る。
符号化器300は、逆量子化を310で、および、逆変換を312で、量子化された残差324に適用して、再構築された残差を取得し、再構築された残差を加算器322で予測信号326(たとえば、予測ブロック)に追加することにより、再構築されたビデオ信号342(たとえば、再構築されたビデオブロック)を生成し得る。再構築されたビデオ信号342は、フィルタリングされない再構築された信号と呼ばれ得る。再構築されたビデオ信号342は、空間的予測ユニット330に提供され得る。再構築されたビデオ信号342は、ループフィルタプロセス(たとえば、デブロッキングフィルタ、サンプル適応オフセット、適応ループフィルタ、および/または類するもの)をループフィルタユニット336で受け得る。フィルタリングされた再構築されたビデオ信号344は、たとえば、後来ビデオ信号を予測するために使用されるように、基準画像ストア334に記憶され得る。基準画像ストア334は、復号された画像バッファ(DPB)を指し得る。基準画像ストア334は、フィルタリングされた再構築されたビデオ信号344を、動き予測ユニット332に、たとえば、入力ビデオ302の後続のブロックの予測のために提供し得る。
図4は、例示的なブロックに基づく単一レイヤ復号器400の線図である。復号器400は、たとえば、図3の符号化器300により生み出され得た(たとえば、ビットストリーム320であり得る)、ビデオビットストリーム402を受信し得る。ビデオビットストリーム402は、複数の画像のコーディングされた情報を含み得る。画像は、1もしくは複数のブロック、または、1もしくは複数のサイズを含み得る。ブロックは、任意のサイズ、たとえば64x64、32x32、16x16、8x8、4x4、矩形などであり得る。復号器400は、表示されることになるビデオ信号を再構築し得る。ビデオ復号器400でビットストリーム402は、エントロピー復号器404により、残差係数406、ならびに/または、コーディングモード、予測モード、および、動き情報408に関係する情報を生成するためにパースされ得る。残差係数406は、再構築された残差426を取得するために、410で逆量子化され、412で逆変換され得る。
コーディングモード、予測モード、および、動き情報408は、ビットストリーム402のビデオブロック(たとえば、同じまたは異なるビデオブロック)の、空間的予測ユニット424による空間的予測、および/または、時間的予測ユニット422による時間的予測を使用して予測信号430を取得するために使用され得る。予測信号430、および、再構築された残差426は、加算器414で、再構築されたビデオ信号428を生成するために追加され得る。再構築されたビデオ信号428は、空間的予測ユニット424に提供され得る。再構築されたビデオは、ループフィルタリングユニット416により、フィルタリングされた再構築ビデオ信号418を生成するためにフィルタリングされ得る。フィルタリングされた再構築されたビデオ信号418は、基準画像ストア420に記憶され得る。フィルタリングされた再構築されたビデオ信号418は、表示され得、および/または、ビデオ信号(たとえば、ビットストリーム402)のブロックを復号するために使用され得る。
図5は、例示的な2レイヤスケーラブルビデオ符号化器500の線図である。2レイヤスケーラブルビデオ符号化器500は、インターレイヤ予測を含み得る。インターレイヤ予測は、画像レベルILP、ブロックレベルILP、および/または類するものを指し得る。図5では、エンハンスメントレイヤビデオ入力502が受信され得る。エンハンスメントレイヤビデオ入力502は、ダウンサンプリングユニット504で、ベースレイヤビデオ入力506を作成するためにダウンサンプリングされ得る。ベースレイヤ符号化器508(たとえば、HEVC符号化器)は、ベースレイヤビデオ入力506を(たとえば、ブロック単位で、画像単位でなどで)符号化し得、ベースレイヤビットストリーム510を生成し得る。ビデオ符号化器300は、ベースレイヤ符号化器508の例であり得る。ベースレイヤ符号化器508は、ベースレイヤ情報512(たとえば、コーディングモード情報、予測モード情報、および/または、動き情報)を、インターレイヤ予測処理および管理ユニット514に送出し得る。ベースレイヤ符号化器508は、ベースレイヤ再構築された画像(たとえば、ビットストリームの1または複数の画像)を、ベースレイヤ復号された画像バッファ522に記憶し得る。ベースレイヤ符号化器508は、復号された画像バッファ522から取り出される画像、および/または、ベースレイヤ情報512を使用して、ベースレイヤ入力506を符号化し、ベースレイヤビットストリーム510を生成し得る。
エンハンスメントレイヤ符号化器516は、エンハンスメントレイヤビデオ入力502を受信し得る。エンハンスメントレイヤビデオ入力502は、ベースレイヤビデオ入力506より高い空間的分解能、および/または、他のビデオパラメータのより高い値でのものであり得る。エンハンスメントレイヤ符号化器516は、エンハンスメントレイヤビデオ入力502を使用してエンハンスメントレイヤビットストリーム518を生成し得る。エンハンスメントレイヤ符号化器516は、ELビットストリーム518を、ベースレイヤビデオ符号化器508と実質的に同様の様式で、たとえば、空間的予測および/または時間的予測を使用して圧縮を実現することにより生み出し得る。エンハンスメントレイヤ符号化器516は、エンハンスメントレイヤ情報520(たとえば、コーディングモード情報、予測モード情報、および/または、動き情報)を、インターレイヤ予測処理および管理ユニット514に送出し得る。エンハンスメントレイヤ符号化器516は、エンハンスメントレイヤ再構築された画像(たとえば、ビットストリームの1または複数の画像)、および/または、エンハンスメントレイヤ情報520を、エンハンスメントレイヤ復号された画像バッファ524に記憶し得る。エンハンスメントレイヤ符号化器516は、復号された画像バッファ524から取り出される画像、および/または、エンハンスメントレイヤ情報520を使用して、エンハンスメントレイヤ入力502を符号化し、エンハンスメントレイヤビットストリーム518を生成し得る。
エンハンスメントレイヤ符号化器516は、インターレイヤ予測(ILP)を実行して、そのコーディング性能を改善し得る。エンハンスメントレイヤ符号化器516は、ILPを、インターレイヤ予測処理および管理ユニット514からの援助によって実行し得る。たとえばインターレイヤ予測処理および管理ユニット514は、ベースレイヤビデオ入力506を使用して生成される1または複数の基準画像を提供して、基準画像を、復号された画像バッファ524に提供し得る。予測信号を、現在のエンハンスメントレイヤでのコーディングされたビデオ信号に基づいて導出する空間的および時間的予測とは違い、インターレイヤ予測は、予測信号を、ベースレイヤ入力506(たとえば、および/または、2つより多いレイヤがスケーラブルシステムに存在するときは、他のより低いレイヤ)からのコーディングされたビデオ信号に基づいて導出し得る。画像レベルILPおよび/またはブロックレベルILPが、符号化器500により使用され得る。ビットストリーム多重化器528は、ベースレイヤビットストリーム510およびエンハンスメントレイヤビットストリーム518を組み合わせて、スケーラブルビットストリーム530を生成し得る。スケーラブルビットストリーム530は、複数の画像を含み得る。画像は、1もしくは複数のブロック、または、1もしくは複数のサイズを含み得る。ブロックは、任意のサイズ、たとえば64x64、32x32、16x16、8x8、4x4、矩形などであり得る。
図6は、例示的な2レイヤスケーラブルビデオ復号器600の線図である。復号器600は、スケーラブル符号化器500に対応し得る。復号器600は、スケーラブルビットストリーム602を受信し得る。スケーラブルビットストリーム602は、複数の画像を含み得る。画像は、1もしくは複数のブロック、または、1もしくは複数のサイズを含み得る。ブロックは、任意のサイズ、たとえば64x64、32x32、16x16、8x8、4x4、矩形などであり得る。復号器600は、スケーラブルビットストリーム602を逆多重化器604に提供し得る。逆多重化器604は、スケーラブルビットストリーム602を、ベースレイヤビットストリーム606およびエンハンスメントレイヤビットストリーム610に分離し得る。逆多重化器604はさらには、インターレイヤ予測情報614を、インターレイヤ予測処理および管理ユニット616に送出し得る。
ベースレイヤ復号器608は、ベースレイヤビットストリーム606を受信し得る。復号器400は、ベースレイヤ復号器608の例であり得る。ベースレイヤ復号器608は、ベースレイヤビットストリーム606を復号し、再構築するベースレイヤビデオ622を生成し得る。ベースレイヤ復号された画像バッファ618は、ベースレイヤビデオ622の1または複数の画像を記憶して、たとえば、ベースレイヤ復号器608を、ベースレイヤビットストリーム606を復号する際に援助し得る。ベースレイヤ復号された画像バッファ618は、ベースレイヤビデオ622に関係する情報(たとえば、アップサンプリングされたベースレイヤ画像)を、インターレイヤ予測処理および管理ユニット616に提供し得る。
エンハンスメントレイヤ復号器612は、エンハンスメントレイヤビットストリーム610を受信し得る。エンハンスメントレイヤ復号器612は、現在のレイヤ、および/または、その依存性レイヤ(たとえば、ベースレイヤ)の1もしくは複数からの情報を使用して、たとえばILPによって、エンハンスメントレイヤビットストリーム610を復号し得る。エンハンスメントレイヤ復号器は、エンハンスメントレイヤビットストリーム610を復号して、再構築されたエンハンスメントレイヤビデオ624を生成し得る。エンハンスメントレイヤ復号された画像バッファ620は、エンハンスメントレイヤビデオ624の1もしくは複数の画像、ならびに/または、インターレイヤ予測処理および管理ユニット616からの1もしくは複数のインターレイヤ画像を記憶して、たとえば、エンハンスメントレイヤ復号器612を、エンハンスメントレイヤビットストリーム610を復号する際に援助し得る。
図7は、例示的なインターレイヤ予測処理および管理ユニット700の線図である。ILP処理および管理ユニット514および616は、ILP処理および管理ユニット700の例であり得る。ILP処理および管理ユニット700は、エンハンスメントレイヤビデオ入力702を受信し得る。エンハンスメントレイヤビデオ入力702は、ILP処理ユニット704の最適化対象として使用され得る。ILP処理および管理ユニット700は、エンハンスメントレイヤビデオ702を、ILP処理ユニット704および/またはILP管理ユニット706に提供し得る。ILP処理ユニット704は、ベースレイヤDPB708からのベースレイヤ画像、および/または、エンハンスメントレイヤ画像710を受信し得る。
ILP処理ユニット704は、1または複数の(たとえば、2つの)インターレイヤ基準(ILR)画像712を生成し得る。ILR画像は、符号化器および/または復号器により、現在のEL画像を符号化および/または復号するために使用され得る。ILR画像は、並置されるBL再構築された画像716をアップサンプリングすることにより生成されるILR画像であり得る。並置されるBL再構築された画像をアップサンプリングすることにより生成されるILR画像は、正規ILR画像と呼ばれ得る。ILR画像は、エンハンスされたインターレイヤ基準(E−ILR)画像であり得る。E−ILR画像は、時間的EL再構築された画像、および、正規ILR画像を組み合わせることにより生成され得る。ILR(たとえば、E−ILR)画像は、EL DPB714内に挿入され得る。挿入位置は、ILP管理ユニット706により管理され得る。EL DPB714は、ILR画像の1または複数を、EL符号化器および/またはEL復号器に提供し得る(720)。
図8は、基準画像リスト内のILR画像および/またはE−ILR画像の配置の例の線図800である。ILR画像802および/またはE−ILR画像804は、符号化器および/または復号器により識別され得る。図8で示すように、E−ILR画像804は、(たとえば、リストL0および/またはL1の)異なる位置に配置され得る。たとえばE−ILR画像804は、BスライスのリストL0内に、または、BスライスのリストL1内に配置され得る。E−ILR画像804は、PスライスのリストL0内のILR画像802の後に、または、PスライスのリストL0内のILR画像802の前に配置され得る。E−ILR画像は、再順序付け情報をシグナリングすることにより再順序付けされ得る。フラグは、復号器に、EILR処理を実行することを指示し得る。表2は、本明細書で使用されるシンボルのリストを示す。
インターレイヤ(IL)は、ELコーディングに対する基準画像を提供し得る、仮想的な画像レイヤであり得る。BL画像のインターコーディングされるブロックの動き情報は、並置されるBL動きが、ILに、動きフィールドマッピングを使用してマッピングされる後に、ILブロックに対する時間的対応を指示し得る。インターレイヤ動きベクトルが提供され得る。たとえばインターレイヤ動きベクトルは、式(1)により提供され得る。
MVILx=MFM(MVBLx) (1)
正規インターレイヤ基準画像が提供され得る。たとえば正規ILR画像は、式(2)によって生成され得る。
B(IL)=Ups(B(BL)) (2)
図9は、単予測コーディングされるブロックを使用するE−ILRブロックの生成の例の線図である。図9は、E−ILRブロックを生成する残差方法および/または差分方法を解説するために使用され得る。線図900は、時間Tでのベースレイヤ(BL)画像BL908、時間Tでのインターレイヤ(IL)基準画像IL910、および、時間Tでのエンハンスメントレイヤ(EL)画像EL912の例を示す。ブロックB(BL)926は、BL画像BL908の内部に配置されるブロックであり得る。ブロックB(IL)928は、IL画像IL910の内部に配置されるブロックであり得る。ブロックB(EL)930は、EL画像EL912の内部に配置されるブロックであり得る。動きベクトルMVBLX932は、ブロックB(BL)926に関連付けられた動きベクトルであり得る。動きベクトルMVILX934は、ブロックB(IL)928に関連付けられた動きベクトルであり得る。動きベクトルMVELX936は、ブロックB(EL)930に関連付けられた動きベクトルであり得る。
線図900は、時間XでのBL画像BL902、時間XでのIL基準画像IL904、および、時間XでのEL画像EL906の例を示す。ブロックB(BL)920は、BL画像BL902の内部に配置されるブロックであり得る。動き補償されたブロックMC(IL,MVILX)922は、IL画像IL904の内部に配置されるブロックであり得る。動き補償されたブロックMC(EL,MVELX)924は、EL画像EL906の内部に配置されるブロックであり得る。BL基準画像914、IL基準画像916、および、EL基準画像918は、それぞれの画像902、904、および、906の例示的なイメージであり得る。時間Xでの画像(たとえば、または、ブロック)は、時間Tでの画像(たとえば、または、ブロック)の前に符号化され得る。したがって、時間Xにより特徴付けられる画像902、904、906は、時間TでのEL画像912に対する基準画像として使用され得る。画像902、904、906、908、910、および/または、912は、画素ドメインでの画像であり得る。
IL基準画像IL910は、BL画像BL908をアップサンプリングすることにより生成され得る。ブロックB(IL)928は、ブロックB(BL)926をアップサンプリングすることにより生成され得る。IL基準画像IL904は、BL画像BL902をアップサンプリングすることにより生成され得る。動き補償されたブロックMC(IL,MVILX)922は、ブロックB(BL)920をアップサンプリングすることにより生成され得る。したがって、IL基準画像IL910、および/または、ブロックB(IL)928は、アップサンプリングされたBL画像910、および/または、アップサンプリングされたBLブロック928と、それぞれ呼ばれ得る。IL基準画像IL904、および/または、動き補償されたブロックMC(IL,MVILX)922は、アップサンプリングされたBL画像904、および/または、アップサンプリングされたBLブロック922と、それぞれ呼ばれ得る。
ブロックB(BL)926は、ILブロックB(IL)928の並置されるブロックであり得る。B(BL)926がインターモードブロックとして符号化されるならば、E−ILRブロックEnh(B(IL))は、ILブロックB(IL)928を使用して生成され得る(たとえば、ILブロックB(IL)928がエンハンスされ得る)。たとえばE−ILRブロックEnh(B(IL))は、式(3)によって(たとえば、単予測モードに対して)生成され得る。
Enh(B(IL))=Clip(B(IL)+ω(IL)*(MCILP(EL,MVILx)−MCILP(IL,MVILx))) (3)
B(BL)926がインターモードブロックとして符号化されるならば、E−ILRブロックEnh(B(IL))は、ILブロックB(IL)928を使用して生成され得る(たとえば、ILブロックB(IL)928がエンハンスされ得る)。たとえばE−ILRブロックEnh(B(IL))は、式(4)によって(たとえば、双予測モードに対して)生成され得る。
Enh(B(IL))=Clip(B(IL)+ω(IL,IL)*((MCILP(EL,MVIL0)+MCILP(EL,MVIL1))/2−(MCILP(IL,MVIL0)+MCILP(IL,MVIL1))/2)) (4)
高周波数信号を含むE−ILRブロックが、画像EL906および/またはIL904による動き補償を使用して、たとえば、式(3)および/または式(4)を使用して生成され得る。
重みωが、E−ILRブロックを生成するときに使用され得る。重みωは、0以上、かつ1以下であり得る。重みω(IL)(たとえば、0≦ω≦1)は、1または複数の(たとえば、各々の)基準画像に対して変化させられ得る(たとえば、適応的に変化させられ得る)。たとえば重みは、最小二乗方法を使用して推定され得る。最適化対象は、ELブロックB(EL)930と、アップサンプリングされたBLブロックB(IL)928との間の差であり得る。観測値は、時間インスタンスXでの、ELの再構築されたブロックMC(EL,MVELx)924と、ブロックMC(IL,MVILX)922との間の差であり得る。重みは、対象と重み付けされた観測値との間の差を最小化することにより推定される、対象と観測値との間の比率(たとえば、最適な比率)であり得る。
重みωは、異なる分類方法に基づいて推定され得る。たとえば重みは、list0およびlist1などのリストに関連付けられ得る。重みは、2つのリストからの一意的な基準画像組み合わせに関連付けられ得る。重みは、たとえば整数動きベクトル、半画素動きベクトル、4分の1画素動きベクトル、および/または類するものなどの、動きベクトルの精度に関連付けられ得る。重みは、たとえば単予測、双予測などの、予測モードに関連付けられ得る。より細かな分類は、より正確な重み、および/または、より良好なエンハンスメント品質を、重みのシグナリングオーバヘッドのコストによって、結果として生じさせ得る。符号化器は、いつ、推定された重みをシグナリングにより適用すべきかを決定し得る。決定は、RD最適化、RD複雑度最適化、および/または類するものに基づいて、たとえば用途に基づいて行われ得る。RD複雑度最適化では符号化器は、RD性能が、増大される計算複雑度に対して十分に改善されないならば、重みを適用しないことに判断し得る。ILR画像で動き補償で使用される補間フィルタは、BLおよび/またはEL復号でのそれとは異なり得る。たとえばフィルタは、たとえば複雑度を低減するために、BLコーディングおよび/またはELコーディングに対して、正規補間フィルタ(たとえば、双線形補間フィルタ)より短いものであり得る。
ELの残差は、インターレイヤ差を使用して予測され得る。E−ILRブロックEnh(B(IL))は、ILブロックB(IL)928を使用して生成され得る(たとえば、ILブロックB(IL)928がエンハンスされ得る)。たとえばE−ILRブロックEnh(B(IL))は、式(5)および/または式(6)によって生成され得る。
Enh(B(IL))=Clip(MCILP(EL,MVILx)+ω(IL)*(B(IL)−MCILP(IL,MVILx))) (5)
Enh(B(IL))=Clip((MCILP(EL,MVIL0)+MCILP(EL,MVIL1))/2+ω(IL,IL)*(B(IL)−(MCILP(IL,MVIL0)+MCILP(IL,MVIL1))/2)) (6)
式(3)および(4)は、動き補償を差分画像と組み合わせることにより簡略化され得る。差分画像の例は、式(7)により定義される。ILは、時間XでのIL差分画像であり得る。Ioffsetは、2BitDepth−1であり得るオフセット値であり得る。たとえばIoffsetは、8ビットビデオコンテンツに対して128である。
ILD=Clip(EL−IL+Ioffset) (7)
1または複数の基準画像は、たとえば、EL画像EL912の予測の助けとなるように生成され得る。たとえば正規IL基準画像は、並置されるBL画像BL908をアップサンプリングすることにより、アップサンプリングされたBL画像(または、IL基準画像)IL910を生成するために生成され得る。EL画像EL912に対するエンハンスされたインターレイヤ基準(E−ILR)画像が生成され得る。たとえばE−ILR画像は、1または複数のブロックを含み得る。ブロックは、様々なサイズのものであり得る。たとえばブロックは、64x64、32x32、16x16、8x8、4x4、矩形などであり得る。E−ILR画像のブロックは、1もしくは複数のE−ILRブロック、および/または、1もしくは複数の正規ILRブロック(たとえば、並置されるBLブロックをアップサンプリングすることにより生成されるブロック)を含み得る。E−ILRブロックは、本明細書で説明される技法(たとえば、残差、差分、単予測、双予測、および/または類するもの)の1または複数を使用して生成され得る。
E−ILR画像のE−ILRブロックは、残差ブロックを使用して、たとえば式(5)および/または(6)によって生成され得る。E−ILR画像のE−ILRブロックは、以下の1または複数によって生成され得る。E−ILRブロックは、EL画像EL912のブロックB(EL)930を予測するために使用され得る。並置されるブロックB(BL)926がインターコーディングされるか、それともイントラコーディングされるかが決定され得る。ブロックB(BL)926がインターコーディングされるということが決定されるならば、ブロックに対する動き情報が決定され得る。動き情報は、動き情報クラス(たとえば、動き情報が関連付けられる基準画像のインデックス)、および/または、ブロックの動きベクトル(たとえば、動きのサイズ)を含み得る。残差を生成するための時間インスタンスは、ブロックB(BL)926に関係する動き情報を使用して決定され得る。たとえば、ブロックB(BL)926の動き情報(たとえば、動きベクトルMVBLX932)は、時間インスタンスX(たとえば、基準ブロックB(BL)920および/またはBL画像BL902)を決定するために使用され得る。
時間XでのBLブロックは、時間TでのBLブロックから、残差を生成するために差し引かれ得る。たとえば、動き補償されたブロックMC(IL,MVILX)922は、アップサンプリングされたBLブロックB(IL)928から、残差を生成するために差し引かれ得る。残差は、時間Tにより特徴付けられ得る。MCブロックMC(IL,MVILX)922を使用して、残差を、アップサンプリングされたBLブロックB(IL)928に関連付けられた動き情報(たとえば、MVILX934)に基づいて生成することが決定され得る。
残差に重みωを掛け合わせ得る。重みωは、0以上、かつ1以下であり得る。オフセットが、たとえば、異なる時間インスタンス間の残差信号のDC変動に対して補償するために、残差に追加され得る。たとえばオフセットは、単予測モードに対しては式(10)によって、および/または、双予測モードに対しては(11)によって、残差に追加され得る。オフセットは、重みに関連付けられ、および/または、重みによって推定され得る。重みおよびオフセットは、重みおよびオフセットが使用されるならば、1つのパラメータセットとしてシグナリングされ得る。残差は、時間Tにより特徴付けられるE−ILRブロック(たとえば、Enh(B(IL)))を生成するために、ELブロックMC(EL,MVELX)924に追加され得る。ELブロックMC(EL,MVELX)924を使用して、E−ILRブロックを、ELブロックB(EL)930に関連付けられた動き情報(たとえば、MVELX936)に基づいて生成することが決定され得る。時間TでのE−ILRブロックは、ELブロックB(EL)930を予測するために使用され得る。たとえばE−ILRブロックは、EL画像EL912を予測するために使用され得る、時間Tにより特徴付けられるE−ILR画像を作成するために使用され得る。
E−ILR画像のE−ILRブロックは、差分ブロックを使用して、たとえば式(3)および/または(4)への参照によって説明されるように生成され得る。EL画像EL912に対するE−ILR画像は、以下の1または複数によって生成され得る。E−ILRブロックは、EL画像EL912のブロックB(EL)930を予測するために使用され得る。並置されるブロックB(BL)926がインターコーディングされるか、それともイントラコーディングされるかが決定され得る。ブロックB(BL)926がインターコーディングされるということが決定されるならば、ブロックに対する動き情報が決定され得る。動き情報は、動き情報クラス(たとえば、どこから動きが発生するか)、および/または、ブロックの動きベクトル(たとえば、動きのサイズ)を含み得る。差分を生成するための時間インスタンスは、ブロックB(BL)926に関係する動き情報を使用して決定され得る。たとえば、ブロックB(BL)926の動き情報(たとえば、動きベクトルMVBLX932)は、時間インスタンスX(たとえば、基準ブロックB(BL)920および/またはBL画像BL902)を決定するために使用され得る。
時間XでのBLブロックは、時間XでのELブロックにより、差分ブロックを生成するために差し引かれ得る。たとえば、動き補償されたブロックMC(IL,MVILX)922は、アップサンプリングされたBLブロックB(IL)928に関係する動き情報MVILX934を使用して決定され得る。動き情報MVILX934は、たとえば、エンハンスメントレイヤとベースレイヤとの間の空間的比率によって、動き情報MVBLX932をスケーリングすることにより決定され得る。動き補償されたエンハンスメントレイヤブロックMC(EL,MVELX)924は、アップサンプリングされたBLブロックB(EL)930に関係する動き情報MVELX936を使用して決定され得る。動き補償されたブロックMC(IL,MVILX)922は、動き補償されたエンハンスメントレイヤブロックMC(EL,MVELX)924から、差分ブロックを生成するために差し引かれ得る。差分ブロックは、時間Xにより特徴付けられ得る。
差分ブロックに重みωを掛け合わせ得る。重みωは、0以上、かつ1以下であり得る。オフセットが、差分ブロックに追加され得る。たとえばオフセットは、式(10)および/または(11)によって差分ブロックに追加され得る。オフセットは、重みに関連付けられ、および/または、重みによって推定され得る。重みおよびオフセットは、重みおよびオフセットが使用されるならば、1つのパラメータセットとしてシグナリングされ得る。
差分ブロックは、時間Tにより特徴付けられるE−ILRブロックを生成するために、BL画像のアップサンプリングされたブロックに追加され得る。たとえば差分ブロックは、時間Tにより特徴付けられるE−ILRブロック(たとえば、Enh(B(IL)を生成するために、アップサンプリングされたBLブロックB(IL)928に追加され得る。時間TでのE−ILRブロックは、ELブロックB(EL)930を予測するために使用され得る。たとえばE−ILRブロックは、EL画像EL912を予測するために使用され得る、時間Tにより特徴付けられるE−ILR画像を作成するために使用され得る。
空間的スケーラビリティにより特徴付けられるBLおよびELへの参照によって説明されるが、E−ILRブロックは、他のタイプのスケーラビリティ(たとえば、SNRスケーラビリティ、標準スケーラビリティなど)がBLとELとの間に存在するときに生成され得る。図9への参照によって説明されるものと同様の残差方法が、空間的スケーラビリティがBLとELとの間に存在しないならば、E−ILRブロックを生成するために実行され得る。たとえば、空間的スケーラビリティがBLとELとの間に存在しないならば、(たとえば、時間XでのMCブロックと対比させられるような)時間XでのMC BLブロックは、残差ブロックを、たとえば再サンプリングプロセスなしで生成するために、(たとえば、時間TでのアップサンプリングされたBLブロックと対比させられるような)時間TでのBLブロックから差し引かれ得る(たとえば、それから直接差し引かれ得る)。図9への参照によって説明されるものと同様の差分方法が、空間的スケーラビリティがBLとELとの間に存在しないならば、E−ILRブロックを生成するために実行され得る。たとえば、空間的スケーラビリティがBLとELとの間に存在しないならば、(たとえば、時間XでのMCブロックと対比させられるような)時間XでのMC BLブロックは、差分ブロックを生成するために、時間XでのMC ELブロックから差し引かれ得る(たとえば、それから直接差し引かれ得る)ものであり、および/または、差分ブロックは、E−ILRブロックを生成するために、(たとえば、時間TでのアップサンプリングされたBLブロックと対比させられるような)時間TでのBLブロックに追加され得る。
式(3)、(4)は、式(8)および(9)に、たとえば差分画像を使用して変換され得る。動き補償動作の数は、半分により(たとえば、2つの動き補償動作から1つの動き補償動作に)低減され得る。E−ILRブロックEnh(B(IL))は、式(8)および/または式(9)を使用して生成され得る。
Enh(B(IL))=Clip(B(IL)+ω(IL)*(MCILP(ILD,MVILx)−Ioffset)) (8)
Enh(B(IL))=Clip(B(IL)+ω(IL,IL)*((MCILP(ILD,MVIL0)+MCILP(ILD,MVIL1))/2−Ioffset)) (9)
図10は、差分ブロック、および、単予測コーディングされるブロックを使用するE−ILRブロックの生成の例の線図である。たとえば、図10との関係で説明される差分方法は、式(7)、(8)を(たとえば、単予測に対して)、および/または、(9)を(たとえば、双予測に対して)使用して、E−ILRブロックを、差分ブロックを使用して生成し得る。線図1000は、時間TでのBL画像BL1008、時間TでのIL基準画像IL1010、および、時間TでのEL画像EL1012の例を示す。ブロックB(BL)1026は、BL画像BL1008の内部に配置されるブロックであり得る。ブロックB(IL)1028は、IL画像IL1010の内部に配置されるブロックであり得る。ブロックB(EL)1030は、EL画像EL1012の内部に配置されるブロックであり得る。動きベクトルMVBLX1032は、ブロックB(BL)1026に関連付けられた動きベクトルであり得る。動きベクトルMVILX1034は、ブロックB(IL)1028に関連付けられた動きベクトルであり得る。
線図1000は、時間XでのBL画像BL1002、時間XでのIL差分画像ILD1004、および、時間XでのEL画像EL1006の例を示す。ブロックB(BL)1020は、BL画像BL1002の内部に配置されるブロックであり得る。動き補償された差分ブロックMC(ILD,MVILDX)1022は、IL差分画像ILD1004の内部に配置されるブロックであり得る。ELブロックB(EL)1024は、EL画像EL1006の内部に配置されるブロックであり得る。BL基準画像1014およびEL基準画像1018は、それぞれの画像1002および1006の例示的なイメージであり得る。IL差分画像1016は、時間XでのIL差分画像IDL1004の例であり得る。IL差分画像ILD1004は、BL画像BL1002のアップサンプリングされたバージョンを、エンハンスメントレイヤ画像EL1006から、(たとえば、空間的分解能がBLおよびELに対して同じでないならば)たとえば式(7)によって差し引くことにより生成され得る。IL差分画像ILD1004は、BL画像BL1002を、エンハンスメントレイヤ画像EL1006から、たとえば、空間的分解能が2つのレイヤに対して同じであるならば、差し引くことにより生成され得る。時間Xでの画像(たとえば、または、ブロック)は、時間Tでの画像(たとえば、または、ブロック)の前に符号化され得る。したがって、時間Xにより特徴付けられる画像1002、1004、1006は、時間TでのEL画像1012に対する基準画像として使用され得る。ブロックレベル実装では、たとえばE−ILRブロックが生成され得、画像1004は基準画像として使用され得る。画像レベル実装では、たとえば画像1004は、E−ILR画像を生成するために使用され得る。
IL基準画像IL1010は、BL画像BL1008をアップサンプリングすることにより生成され得る。ブロックB(IL)1028は、ブロックB(BL)1026をアップサンプリングすることにより生成され得る。したがって、IL基準画像IL1010、および/または、ブロックB(IL)1028は、アップサンプリングされたBL画像1010、および/または、アップサンプリングされたBLブロック1028と、それぞれ呼ばれ得る。
IL差分画像1016は、差分画像の例である。差分画像によって、E−ILRブロックおよび/または画像の生成が、式(8)および/または(9)を使用して実行され得る。動き補償が実行される回数の数は、図9への参照によって説明される差分方法と対比させられるように、図10への参照によって説明される差分方法を使用すると低減され得る(たとえば、動き補償は、図9への参照によって説明される差分方法によって2回、および、図10への参照によって説明される差分方法によって1回実行され得る)。フィルタリングプロセスが、たとえば、差分画像は、ノイズを含み得る高周波数信号を含み得るので、適用され得る。たとえばノイズ除去フィルタリングが、差分ブロック(たとえば、MC(ILD,MVILDX)1022)および/または画像に、それがE−ILRブロックおよび/または画像の生成に対して使用される前に適用され得る。
1または複数の基準画像は、たとえば、EL画像EL1012の予測の助けとなるように生成され得る。たとえば正規IL基準画像は、並置されるBL画像BL1008をアップサンプリングすることにより、アップサンプリングされたBL画像(または、IL基準画像)IL1010を生成するために生成され得る。EL画像EL1012に対するE−ILR画像が生成され得る。たとえばE−ILR画像は、1または複数のブロックを含み得る。ブロックは、様々なサイズのものであり得る。たとえばブロックは、64x64、32x32、16x16、8x8、4x4、矩形などであり得る。E−ILR画像のブロックは、1もしくは複数のE−ILRブロック、および/または、1もしくは複数の正規ILRブロック(たとえば、並置されるBLブロックをアップサンプリングすることにより生成されるブロック)を含み得る。E−ILRブロックは、本明細書で説明される技法(たとえば、残差、差分、単予測、双予測、および/または類するもの)の1または複数を使用して生成され得る。
E−ILR画像のE−ILRブロックは、差分ブロックを使用して、たとえば式7〜9への参照によって説明されるように生成され得る。EL画像EL1012に対するE−ILR画像は、以下の1または複数によって生成され得る。E−ILRブロックは、EL画像EL1012のブロックB(EL)1030を予測するために使用され得る。並置されるブロックB(BL)1026がインターコーディングされるか、それともイントラコーディングされるかが決定され得る。ブロックB(BL)1026がインターコーディングされるということが決定されるならば、ブロックに対する動き情報が決定され得る。動き情報は、動き情報クラス(たとえば、動き情報が関連付けられる基準画像のインデックス)、および/または、ブロックの動きベクトル(たとえば、動きのサイズ)を含み得る。差分画像/ブロックを生成するための時間インスタンスは、ブロックB(BL)1026に関係する動き情報を使用して決定され得る。たとえば、ブロックB(BL)1026の動き情報(たとえば、動きベクトルMVBLX1032)は、時間インスタンスX(たとえば、基準ブロックB(BL)1020および/またはBL画像BL1002)を決定するために使用され得る。
時間XでのBLブロックは、時間XでのELブロックから、差分ブロックを生成するために差し引かれ得る。たとえば、BLブロックB(BL)1020のアップサンプリングされたバージョンは、ELブロックB(EL)1024から、差分ブロックを生成するために差し引かれ得る。差分ブロックは、時間Xにより特徴付けられ得る。BLブロックB(BL)1020のアップサンプリングされたバージョンを使用して、差分ブロックを、ILブロックB(IL)1028に関連付けられた動き情報(たとえば、MVILX1034)、および/または、BLブロックB(BL)1026に関連付けられた動き情報(たとえば、MVBLX1032)に基づいて生成することが決定され得る。
動き補償が、差分ブロック上で、動き補償された差分ブロックMC(ILD,MVILDX)1022を生成するために実行され得る。たとえば動き補償は、差分ブロック上で、ベースレイヤ動き情報を使用して実行され得る。ベースレイヤ動き情報は、スケーリングされたベースレイヤ動き情報であり得る。たとえばベースレイヤ動き情報は、ベースレイヤとエンハンスメントレイヤとの間の空間的比率に基づいてスケーリングされ得る。ベースレイヤ動き情報は、動き情報MVILX1034であり得、そのMVILX1034は、動き情報MVBLX1032を、エンハンスメントレイヤとベースレイヤとの間の空間的比率によってスケーリングすることにより決定され得る。したがって動き補償は、差分ブロック上で、動き補償された差分ブロックMC(ILD,MVILDX)1022を、スケーリングされた動き情報MVILX1034を使用して生成するために実行され得る。
動き補償された差分ブロックMC(ILD,MVILDX)1022に重みωを掛け合わせ得る。重みωは、0以上、かつ1以下であり得る。オフセットが、動き補償された差分ブロックMC(ILD,MVILDX)1022に追加され得る。たとえばオフセットは、式(7)、(10)、および/または、(11)によって、動き補償された差分ブロックMC(ILD,MVILDX)1022に追加され得る。オフセットIoffsetは、差分ブロック/画像の動的範囲を、動き補償が(たとえば、式(7)によって)使用され得る画像の動的範囲にシフトさせるために追加され得る。差分ブロックの動き補償の後で、Ioffsetは、(たとえば、式(10)および/または(11)に示されるように)差分信号を回復するために差し引かれ得る。たとえば、オフセットO(IL)および/またはO(IL,IL)は、(たとえば、式(10)および/または(11)に示されるように)重み付けの後に追加され得る。オフセットO(x)は、モデルパラメータ(W,O)のセットを形成する重みに関連付けられ得る。
動き補償された差分ブロックMC(ILD,MVILDX)1022は、時間Tにより特徴付けられるE−ILRブロックを生成するために、時間TでのBLブロックに追加され得る。たとえば、動き補償された差分ブロックMC(ILD,MVILDX)1022は、時間Tにより特徴付けられるE−ILRブロック(たとえば、Enh(B(IL)を生成するために、アップサンプリングされたBLブロックB(IL)1028に追加され得る。時間TでのE−ILRブロックは、ELブロックB(EL)1030を予測するために使用され得る。たとえばE−ILRブロックは、EL画像EL1012を予測するために使用され得る、時間Tにより特徴付けられるE−ILR画像を作成するために使用され得る。
空間的スケーラビリティにより特徴付けられるBLおよびELへの参照によって説明されるが、E−ILRブロックは、他のタイプのスケーラビリティ(たとえば、SNRスケーラビリティ、標準スケーラビリティなど)がBLとELとの間に存在するときに生成され得る。図10への参照によって説明されるものと同様の差分方法が、空間的スケーラビリティがBLとELとの間に存在しないならば、E−ILRブロックを生成するために実行され得る。たとえば、空間的スケーラビリティがBLとELとの間に存在しないならば、(たとえば、時間XでのアップサンプリングされたBLブロックと対比させられるような)時間XでのBLブロックは、時間Xでの差分ブロックを生成するために、時間XでのELブロックから差し引かれ得る(たとえば、それから直接差し引かれ得る)ものであり、および/または、動き補償された差分ブロックは、E−ILRブロックを生成するために、(たとえば、時間TでのアップサンプリングされたBLブロックと対比させられるような)時間TでのBLブロックに追加され得る。さらに動き補償は、差分ブロック上で、(たとえば、時間TでのアップサンプリングされたBLブロックと対比させられるような)時間TでのBLブロックに関連付けられた動き情報を使用して、動き補償された差分を生成するために実行され得る。
ILRブロック(たとえば、正規ILRブロックおよび/またはE−ILRブロック)は、双予測を使用して生成され得る。E−ILRブロックは、双予測を使用して、たとえば式(4)、(6)、および/または、(9)によって生成され得る。たとえばE−ILRブロックは、1つの時間インスタンスに対して、2つの、またはより多い他の時間インスタンスからのブロックを使用して生成され得る。1つの例は、図11への参照によって提供されるが、双予測を使用するE−ILRブロックの生成は、他の様式(たとえば、残差方法、(たとえば、図10への参照で説明されるような)単一の動き補償を使用する差分方法、(たとえば、図9への参照で説明されるような)2つの動き補償動作を使用する差分方法など)で実行され得る。
図11は、差分および双予測コーディングされるブロックを使用するE−ILRブロックの生成の例の線図である。線図1100は、時間RでのBL画像BL 1102、時間RでのIL基準画像IL 1104、および、時間RでのEL画像EL 1106の例を提供する。線図1100は、時間PでのBL画像BL1108、時間PでのIL画像IL1110、および、時間PでのEL画像EL1112の例を提供する。線図1100は、時間RでのBL画像BL 1114、時間RでのIL基準画像IL 1116、および、時間RでのEL画像EL 1118の例を提供する。
ブロックB(BL)1128は、BL画像BL 1102の内部に配置されるブロックであり得る。動き補償されたブロックMC(IL,MVIL0)1130は、IL画像IL 1104の内部に配置されるブロックであり得る。動き補償されたブロックMC(EL,MVEL0)1142は、EL画像EL 1106の内部に配置されるブロックであり得る。ブロックB(BL)1132は、BL画像BL1108の内部に配置されるブロックであり得る。ブロックB(IL)1134は、IL画像IL1110の内部に配置されるブロックであり得る。ブロックB(EL)1136は、EL画像EL1112の内部に配置されるブロックであり得る。ブロックB(BL)1138は、BL画像BL 1114の内部に配置されるブロックであり得る。動き補償されたブロックMC(IL,MVIL1)1140は、IL画像IL 1116の内部に配置されるブロックであり得る。動き補償されたブロックMC(EL,MVEL1)1144は、EL画像EL 1118の内部に配置されるブロックであり得る。時間Rでの画像(たとえば、または、ブロック)、および/または、時間Rでの画像(たとえば、または、ブロック)は、時間Pでの画像(たとえば、または、ブロック)の前に符号化され得る。したがって、時間Rにより特徴付けられる画像1102、1104、1106、および/または、時間Rにより特徴付けられる画像1114、1116、1118は、時間PでのEL画像EL1112に対する基準画像として使用され得る。
IL基準画像IL1110は、BL画像BL1108をアップサンプリングすることにより生成され得る。ブロックB(IL)1134は、ブロックB(BL)1132をアップサンプリングすることにより生成され得る。IL基準画像IL 1104は、BL画像BL 1102をアップサンプリングすることにより生成され得る。動き補償されたブロックMC(IL,MVIL0)1130は、ブロックB(BL)1128をアップサンプリングすることにより生成され得る。IL基準画像IL 1116は、BL画像BL 1114をアップサンプリングすることにより生成され得る。動き補償されたブロックMC(IL,MVIL1)1140は、ブロックB(BL)1138をアップサンプリングすることにより生成され得る。したがって、IL基準画像IL1110、および/または、ブロックB(IL)1134は、アップサンプリングされたBL画像1110、および/または、アップサンプリングされたBLブロック1134と、それぞれ呼ばれ得る。IL基準画像IL 1104、および/または、動き補償されたブロックMC(IL,MVIL0)1130は、アップサンプリングされたBL画像1104、および/または、アップサンプリングされたBLブロック1130と、それぞれ呼ばれ得る。IL基準画像IL 1116、および/または、動き補償されたブロックMC(IL,MVIL1)1140は、アップサンプリングされたBL画像1116、および/または、アップサンプリングされたBLブロック1140と、それぞれ呼ばれ得る。
1または複数の基準画像は、たとえば、EL画像EL1112の予測の助けとなるように生成され得る。たとえば正規IL基準画像は、並置されるBL画像BL1108をアップサンプリングすることにより、アップサンプリングされたBL画像(または、IL基準画像)IL1110を生成するために生成され得る。EL画像EL1112に対するE−ILR画像が生成され得る。たとえばE−ILR画像は、1または複数のブロックを含み得る。ブロックは、様々なサイズのものであり得る。たとえばブロックは、64x64、32x32、16x16、8x8、4x4、矩形などであり得る。E−ILR画像のブロックは、1もしくは複数のE−ILRブロック、および/または、1もしくは複数の正規ILRブロック(たとえば、並置されるBLブロックをアップサンプリングすることにより生成されるブロック)を含み得る。E−ILRブロックは、本明細書で説明される技法(たとえば、残差、差分、単予測、双予測、および/または類するもの)の1または複数を使用して生成され得る。
E−ILR画像のE−ILRブロックは、差分および双予測モードを使用して生成され得る。EL画像EL1112に対するE−ILR画像は、以下の1または複数によって生成され得る。E−ILRブロックは、EL画像EL1112のブロックB(EL)1136を予測するために使用され得る。並置されるブロックB(BL)1132がインターコーディングされるか、それともイントラコーディングされるかが決定され得る。ブロックB(BL)1132がインターコーディングされるということが決定されるならば、ブロックに対する動き情報が決定され得る。たとえば、ブロックB(BL)1132が双予測されるならば、ブロックB(BL)1132は、動き情報の2つのセットを含み得る。動き情報は、動き情報クラス(たとえば、どこから動きが発生するか)、および/または、ブロックの動きベクトル(たとえば、動きのサイズ)を含み得る。差分を生成するための2つの時間インスタンスは、ブロックB(BL)1132に関係する動き情報を使用して決定され得る。たとえば、ブロックB(BL)1132の第1の動き情報(たとえば、動きベクトルMVBL0 1120)は、時間インスタンスR(たとえば、基準ブロックB(BL)1128および/またはBL画像BL 1102)を決定するために使用され得、ブロックB(BL)1132の第2の動き情報(たとえば、動きベクトルMVBL1 1122)は、時間インスタンスR(たとえば、基準ブロックB(BL)1138および/またはBL画像BL 1114)を決定するために使用され得る。
時間RでのBLブロックは、時間RでのBLブロックに、組み合わされたBLブロックを生成するために追加され得る。たとえば、組み合わされたBLブロックは、平均化されたBLブロックを生成するために、2により分割され得る。たとえば、動き補償されたブロックMC(IL,MVIL0)1130は、動き補償されたブロックMC(IL,MVIL1)1140に、組み合わされたBLブロックを生成するために追加され得る。組み合わされたBLブロックは、平均化されたBLブロックを生成するために、2により分割され得る。動き補償されたブロックMC(IL,MVIL0)1130は、アップサンプリングされたBLブロックB(IL)1134に関連付けられた動き情報MVIL0 1124を使用して決定され得る。動き補償されたブロックMC(IL,MVIL1)1140は、アップサンプリングされたBLブロックB(IL)1134に関連付けられた動き情報MVIL1 1126を使用して決定され得る。
平均化されたBLブロックは、重み付けされた平均を使用して生成され得る。たとえば、平均化されたBLブロックは、P=(p0*w0+p1*w1)/(w0+w1)によって、重み付けされた平均を使用して生成され得る。たとえば、動き補償されたブロックMC(IL,MVIL0)1130を、動き補償されたブロックMC(IL,MVIL1)1140に追加して、組み合わされたBLブロックを生成する前に、動き補償されたブロックMC(IL,MVIL0)1130に第1の重みを掛け合わせ得、動き補償されたブロックMC(IL,MVIL1)1140に第2の重みを掛け合わせ得る。第1の重みおよび第2の重みは異なり得る。組み合わされたブロックは、平均化されたBLブロックを生成するために、組み合わされた第1の重みおよび第2の重みにより分割され得る。
時間RでのELブロックは、時間RでのELブロックに、組み合わされたELブロックを生成するために追加され得る。組み合わされたELブロックは、平均化されたELブロックを生成するために、2により分割され得る。たとえば、動き補償されたELブロックMC(EL,MVEL0)1142は、動き補償されたELブロックMC(EL,MVEL1)1144に、組み合わされたELブロックを生成するために追加され得る。組み合わされたELブロックは、平均化されたELブロックを生成するために、2により分割され得る。動き補償されたELブロックMC(EL,MVEL0)1142は、ELブロックB(EL)1136に関連付けられた動き情報MVEL0 1146を使用して決定され得る。動き補償されたELブロックMC(EL,MVEL1)1144は、ELブロックB(EL)1136に関連付けられた動き情報MVEL0 1148を使用して決定され得る。動きMVEL0 1146およびMVEL1 1148は、たとえば、ILおよびELが同じ空間的分解能を有し得るので、MVIL0およびMVIL1からそれぞれ決定され得る。
平均化されたELブロックは、重み付けされた平均を使用して生成され得る。たとえば、平均化されたBLブロックは、P=(p0*w0+p1*w1)/(w0+w1)によって、重み付けされた平均を使用して生成され得る。たとえば、動き補償されたELブロックMC(EL,MVEL0)1142を、動き補償されたELブロックMC(EL,MVEL1)1144に追加して、組み合わされたBLブロックを生成する前に、動き補償されたELブロックMC(EL,MVEL0)1142に第1の重みを掛け合わせ得、動き補償されたELブロックMC(EL,MVEL1)1144に第2の重みを掛け合わせ得る。第1の重みおよび第2の重みは異なり得る。組み合わされたブロックは、平均化されたELブロックを生成するために、組み合わされた第1の重みおよび第2の重みにより分割され得る。
平均化されたBLブロックは、平均化されたELブロックから、差分ブロックを生成するために差し引かれ得る。差分ブロックに重みωを掛け合わせ得る。重みωは、0以上、かつ1以下であり得る。オフセットが、差分ブロックに追加され得る。たとえばオフセットは、式(7)、(10)、および/または、(11)によって差分ブロックに追加され得る。差分ブロックは、時間Pにより特徴付けられるBL画像のブロックに追加され得る。たとえば差分ブロックは、時間Tにより特徴付けられるE−ILRブロック(たとえば、Enh(B(IL)))を生成するために、アップサンプリングされたBLブロックB(IL)1134に追加され得る。時間PでのE−ILRブロックは、ELブロックB(EL)1136を予測するために使用され得る。たとえばE−ILRブロックは、EL画像EL1112を予測するために使用され得る、時間Pにより特徴付けられるE−ILR画像を作成するために使用され得る。
空間的スケーラビリティにより特徴付けられるBLおよびELへの参照によって説明されるが、E−ILRブロックは、他のタイプのスケーラビリティ(たとえば、SNRスケーラビリティ、標準スケーラビリティなど)がBLとELとの間に存在するときに生成され得る。たとえば、空間的スケーラビリティがBLとELとの間に存在しないならば、(たとえば、時間RでのアップサンプリングされたBLブロックと対比させられるような)時間RでのBLブロック、および、(たとえば、時間RでのアップサンプリングされたBLブロックと対比させられるような)時間RでのBLブロックは、差分ブロックを生成するために使用され得、ならびに/または、(たとえば、時間PでのアップサンプリングされたBLブロックと対比させられるような)時間PでのBLブロックは、E−ILRブロックを生成するために差分ブロックに追加され得る。
オフセットが、E−ILR画像に対するE−ILRブロックを生成するときに、重み付けパラメータを使用することの代わりに、またはそのことへの追加で使用され得る。オフセットO(x)は、DCエラーに対して補償するために使用され得る。重みおよび/またはオフセットは、パラメータの対を含み得る。重みおよび/またはオフセットは、線形モデルを描写し得る。オフセットO(x)なしでは、重みパラメータは線形モデルを描写し得ない。パラメータ推定では、重みおよび/またはオフセットは、たとえば最小二乗方法などの最適化プロセスを使用して共同で推定され得る。たとえばオフセットは、重みωへの追加で使用され得る。式(8)および(9)は、式(10)および(11)に、オフセットを使用して変換され得る。
Enh(B(IL))=Clip(B(IL)+W(IL)*(MCILP(ILD,MVILx)−Ioffset)+O(IL)) (10)
Enh(B(IL))=Clip(B(IL)+W(IL,IL)*((MCILP(ILD,MVIL0)+MCILP(ILD,MVIL1))/2−Ioffset)+O(IL,IL)) (11)
O(IL)およびO(IL,IL)は、元の画像と、エンハンスされたILR画像との間のエラーに対して補償するために使用され得るオフセットであり得る。O(IL)およびO(IL,IL)は、単予測動きに対しては基準画像に、および/または、双予測動きに対しては基準画像の対に関連付けられ得る。
E−ILRブロックを(たとえば、式(8)および/または(9)によって)生成するときに適用される重みは、1または複数の基準画像に関連付けられ得る。HEVCスケーラブル拡張では、たとえば基準画像は両方のリストに現れ得る。ルックアップ表が、基準画像インデックスを、重みリストでのインデックスにマッピングするために使用され得る。たとえば単予測モードに対するlut_weight_uniを含む、多重の(たとえば、2つの)ルックアップ表が存在し得、そのlut_weight_uniは、単予測の基準リストおよび基準インデックスを、単予測に対する重みリストweight_uni_listのインデックスにマッピングし得る。別の表は、双予測モードに対するものであり得、双予測のlist0の基準インデックス、および/または、list1の基準インデックスを、双予測に対する重みリストweight_bi_listのインデックスにマッピングし得る。
weight_uni_list_idx=lut_weight_uni[list_x][ref_idx]
weight_bi_list_idx=lut_weight_uni[ref_idx0][ref_idx1]
図12は、単予測モードに対する、基準インデックスを、重みリストでのインデックスにマッピングするルックアップ表に対するセットアップの例のフローチャートである。図13は、双予測モードに対する、基準インデックスを、重みリストでのインデックスにマッピングするルックアップ表に対するセットアップの例のフローチャートである。単予測に対する、および/または、双予測に対する、重みリスト内のエントリ(たとえば、各々のエントリ)に対して、最小二乗方法が、重みを、重みリストでの同じインデックスを有するブロックの1または複数(たとえば、各々)に基づいて推定するために使用され得る。元のEL画像のブロックは、式(8)および(9)の最適化対象として使用され得、そのことは、(8)(9)でのEnh(B(IL))は、パラメータ推定での元のEL画像の並置されるブロックに等しくあり得るということを意味する。
重みパラメータシグナリングは、基準画像に関連付けられ得る。2つの、またはより多いルックアップ表が、重みマッピングに対して存在し得る。表は、たとえば式(3)、(5)、(8)、および/または、(10)などの、単予測モード使用法に対するものであり得る。表は、たとえば式(4)、(6)、(9)、および/または、(11)などの、双予測モード使用法に対するものであり得る。単予測モードに対しては、重みは、画像順序カウント(POC)により識別される基準画像に関連付けられ得る。双予測モードに対しては、重みは、基準画像対に関連付けられ得る。基準対では、1つの基準画像はlist0からのものであり得、他の基準画像はlist1からのものであり得る。たとえば基準画像の対(r0(POC0),r1(POC1))(たとえば、第1のエントリがlist0からのものであり、第2のエントリがlist1からのものである)は、r0およびr1が両方のリスト内にあるならば、(r1(POC1),r0(POC0))と同じに扱われ得る。2つの、またはより多いリスト(たとえば、list0およびlist1)で生じる同じ基準画像が存在し得る。したがってPOCのリストは、複製された基準画像を取り外すようにすでに処理されたそれらの基準画像のPOCを記憶するために使用され得る。重みは、ルックアップ表を使用して基準画像に関連付けられ得る。
図12は、単予測マッピングをセットアップするために使用され得る。手順1200は、以下の1または複数を含み得る。手順1200は、1202で始まり得、lut_weight_uniのサイズがリセットされ得、size_lut_weight_uniは0に等しくあり得、poc_listがリセットされ得、および/または、poc_listは空になるようにセットされ得る。1204で、list_0およびlist_1が処理されるかどうかが決定され得る。そうであるならば、手順1200は1206で終了し得る。そうでないならば、リスト、list_x(たとえば、list_0またはlist_1)が、1208で、0に等しいref_idxを伴って、処理するために選択され得る。たとえばlist_0は、手順が1208に入る第1の時間に選択され得、list_1は、手順が1208に入る第2の時間に選択され得る。1210で、list_x内の基準画像が処理されたかどうかが決定され得る。そうであるならば、手順は1204に戻り得る。たとえば、list_0内の基準画像のすべてが処理されたならば、手順1200は1204に戻って、たとえば、list_1内の基準画像のすべてがさらに処理されたかどうかをチェックし得る。そうでないならば、手順1200は1212へと継続し得る。1212で、ref_idxを伴う基準画像Rが、list_xから選択され得る。1214で、基準画像Rがpoc_list内にあるかどうかが決定され得る。そうであるならば、ref_idxが、1218で、たとえば1により増大され得、手順1200は1210に戻り得る。そうでないならば、ルックアップ表およびpoc_listが、1216で、それに応じて更新され得る。たとえば、lut_weight_uni[list_x][ref_idx]が、size_lut_weight_uniに等しいようにセットされ得、poc_list[size_lut_weight_uni]が、poc(R)に等しいようにセットされ得、および/または、size_lut_weight_uniが、たとえば1により増大され得る。1216の後で、手順1200は1218へと継続し得、ref_idxが、たとえば1により増大され得る。1218の後で、手順1200は1210に戻り得る。手順1200は、ループ1210〜1218を、list_x内の基準画像のすべてが処理されるまで継続し得る。
図13は、双予測マッピングをセットアップするために使用され得る。手順1300は、以下の1または複数を含み得る。手順1300は、1302で始まり得、lut_weight_biのサイズがリセットされ得、size_lut_weight_biは0に等しくあり得、poc_listがリセットされ得、poc_listは空になるようにセットされ得、および/または、ref_idx0は0に等しくあり得る。1304で、list_0が処理されるかどうかが決定され得る。そうであるならば、手順1300は1306で終了し得る。そうでないならば、1308で、ref_idx0を伴う基準画像R0がlist_0から選択され得、および/または、ref_idx1が1に等しくあり得る。1310で、list_1内の基準画像が処理されるかどうかが決定され得る。そうであるならば、ref_idx0が、1312で、たとえば1により増大され得、手順は1304に戻り得る。そうでないならば、ref_idx1を伴う基準画像R1が、1314で、list_1から選択され得る。1316で、(R0,R1)または(R1,R0)がpoc_list内にあるかどうかが決定され得る。そうであるならば、ref_idx1が、1320で、たとえば1により増大され得、手順1300は1310に戻り得る。そうでないならば、ルックアップ表およびpoc_listが、1318で、それに応じて更新され得る。たとえば、lut_weight_bi[ref_idx0][ref_idx1]が、size_lut_weight_biに等しいようにセットされ得、poc_list[(size_lut_weight_bi)*2]が、poc(R0)に等しいようにセットされ得、poc_list[(size_lut_weight_bi)*2+1]が、poc(R1)に等しいようにセットされ得、および/または、size_lut_weight_biが、たとえば1により増大され得る。1318の後で、手順1300は1320へと継続し得、ref_idx1が、たとえば1により増大され得る。1320の後で、手順1300は1310に戻り得る。手順1300は、ループ1310〜1320を、list_1内の基準画像のすべてが処理されるまで継続し得る。
対象信号Tおよび観測値信号Oを与えられると、最適な重みに対する最小二乗による解は、おそらくはCor(T,O)/Cor(O)に等しいものであり、Cor(T,O)は、TとOとの間の相関であり得、Cor(O)は、Oの自己相関であり得る。図14は、最小二乗方法による、単予測モードに対する、重み推定を算出することの例のフローチャートである。図14では、同じ重みを有する、単予測モードコーディングされるブロックが、重み推定に対して相互相関および自己相関を収集するためにトラバースされ得る。図15は、最小二乗による、双予測モードに対する、重み推定を算出することの例のフローチャートである。図15では、同じ重みを有する、双予測モードコーディングされるブロックが、重み推定に対して相互相関および自己相関を収集するためにトラバースされ得る。
手順1400は、以下の1または複数を含み得る。手順1400は、1402で始まり得、単予測重みリストが、2つの基準画像リストからセットアップされ得る。1404で、単予測重みリスト内の画像が完了しているかどうかが決定される。そうであるならば、手順1400は1420で終了し得る。そうでないならば、1406で、画像Pが、重み推定に対して重みリストから選択され得、AOが0にセットされ得、および/または、ASが0にセットされ得る。1408で、現在の画像内のブロックが処理されるかどうかが決定され得る。そうであるならば、1410で、画像Pに対する重みが、たとえばW(P)=A/Aによって算出され得、手順1400は1404に戻り得る。そうでないならば、1412で、現在のブロックが単予測を使用するかどうか、および、基準画像がPであるかどうかが決定され得る。そうでないならば、手順1400は、1418で、次のブロックに移り、次いで1406に戻り得る。そうであるならば、1414で、差ブロックD、および、動き補償されたブロックSが、たとえば、D=B(EL)−B(IL)、および/または、S=MC(ILD,MVIL)によって算出され得る。1416で、DとSとの間の画素の相関(D(i)*S(i))、および、ブロックの内部のSの自己相関(S(i)*S(i))が、たとえば、A+=sum(D(i)*S(i))、および/または、A+=sum(S(i)*S(i))によって、AおよびAに累算され得る。1418で、手順1400は、次のブロックに移り、次いで1406に戻り得る。
手順1500は、以下の1または複数を含み得る。手順1500は、1502で始まり得、双予測重みリストが、2つの基準画像リストからセットアップされ得る。1504で、双予測重みリスト内の画像が完了しているかどうかが決定される。そうであるならば、手順1500は1520で終了し得る。そうでないならば、1506で、エントリ(P,P)が、重み推定に対して重みリストから選択され得、AOが0にセットされ得、および/または、ASが0にセットされ得る。1508で、現在の画像内のブロックが処理されるかどうかが決定され得る。そうであるならば、1510で、(P,P)に対する重みが、たとえばW(P,P)=A/Aによって算出され得、手順1500は1504に戻り得る。そうでないならば、1512で、現在のブロックが双予測を使用するかどうか、および、基準画像が(P,P)または(P,P)であるかどうかが決定され得る。そうでないならば、手順1500は、1518で、次のブロックに移り、次いで1506に戻り得る。そうであるならば、1514で、差ブロックD、および、動き補償されたブロックSが、たとえば、D=B(EL)−B(IL)、および/または、S=(MC(ILDX0,MV IL)+MC(ILDX1,MV IL))/2によって算出され得る。1516で、A+=sum(D(i)*S(i))、および/または、A+=sum(S(i)*S(i))である。1518で、手順1500は、次のブロックに移り、次いで1506に戻り得る。
符号化器は、画像(たとえば、各々の画像)の重みおよび/またはオフセット情報を、復号器に、たとえばILPエンハンスメント処理のためにシグナリングし得る。ルーマコンポーネントおよびクロマコンポーネントに対する、重みおよび/またはオフセットは異なり得る。ルーマコンポーネントおよびクロマコンポーネントに対する、重みおよび/またはオフセットは、たとえば別々にシグナリングされ得る。たとえば復号器側での複雑度を低減するために、クロマに対する重みは1にセットされ得、および/または、クロマに対するオフセットは0にセットされ得る。重みおよび/またはオフセットは、固定されたポイントでコーディングされ得る。重みおよびオフセットパラメータに対するシグナリングの例が、表3で提供され得る。
図16は、ILRエンハンスメントに対する、領域に基づく重みの例の線図である。図16で示すように、重みおよび/またはオフセットは、領域(たとえば、ブロック)に基づくものであり得る。線図1600は、どのように重みが、画像の1つより多い領域に割り当てられ得るかの例を示す。画像は、多重の領域に異なるように区画され得る。たとえば画像は、均等に区画される、物体によって区画される、動きによって区画されるなどの場合がある。図16は、均等な区画の例を示す。領域(たとえば、各々の領域)は、それ自体の重みおよび/またはオフセットを有し得る。たとえば、E−ILR画像のブロック(たとえば、各々のブロック)は、それ自体の重みおよび/またはオフセットを有し得る。単予測および/または双予測ブロックは、重みおよび/またはオフセットを同じ領域で、たとえば、重みおよびオフセットコーディングのオーバヘッドを低減するために共有し得る。予測コーディングが、領域に基づく重みおよび/またはオフセット情報を符号化するために適用され得る。重みおよび/またはオフセット情報は、スライスのNAL、HEVCでの適応パラメータセット(APS)のNAL、および/または類するもので伝達され得る。
インターレイヤ基準画像エンハンスメントで使用される動き情報は、動きフィールドマッピングプロセスからのものであり得る、インターレイヤ動きからのものであり得、ならびに/または、BL圧縮される、および/もしくは、圧縮されない動き情報から導出され得る(たとえば、直接導出され得る)。ILRエンハンスメントプロセスでの動き補償に対するブロックサイズは、たとえば、ILRエンハンスメントが動きをBLから導出するならば、16x16ブロックサイズで整列させられない場合がある。圧縮されない動きは、圧縮される動きと比較される際に、動き情報(たとえば、より正確な動き情報)を提供し得る。マルチステージ動き圧縮方法が、ELコーディングを改善するために提供され得る。この方法は、ILRエンハンスメントに対して適用され得る。圧縮されない動きのブロックサイズは、たとえば4x4であり得る。圧縮される動きのブロックサイズは、たとえば16x16であり得る。BLは、8x8サイズ設定される動きをILRエンハンスメントに対して提供し得る。8x8サイズ設定される動きは、4x4サイズ設定される圧縮されない動きと比較される際に、メモリ節約を提供し得、および/または、16x16サイズ設定される圧縮される動きと比較される際に、より正確であり得る。8x8サイズ設定される動きは、16x16動きを、たとえば、BLの後来画像の符号化に対して得るように圧縮され得る。
DPB内のBL動きは、たとえば、メモリサイズを節約するために圧縮され得る。この圧縮されるBL動きは、インターレイヤ動きを粗い粒度で行い得る。BL動きのスケーリングは、2つのレイヤの分解能が異なるならば、精度を失い得る。たとえばBL動きは、2x空間的スケーラビリティに対して、2xによりアップでスケーリングされ得る。元のBL動きが1/4ペル精度であるならば、動き精度は1/2ペル精度であり得る。式(8)および(9)で使用されるインターレイヤ動き正確度を改善することが、ILPを改善し得る。
動き精密化は、マッピングされる動きを精密化のセンタとして適用し、その隣接物(たとえば、最も近い隣接物)の1または複数を検索し得る。動きは、デルタ動きを、たとえば式(12)を使用して受信するように精密化され得る。
MVILxは、BL動きから導出される動きであり得る。歪みが、二乗エラーの和(SSE)、絶対変換差の和(SATD)、および/または類するものを使用して評価され得る。並置されるブロックがBLでイントラコーディングされるならば、MVILxは利用不可能であり得る。動きは、1または複数の空間的隣接ブロックの動きから導出され得る。最小量の歪みが、たとえば式(13)を使用して決定され得る。エンハンスメントレイヤ時間的動きは、時間的距離によるスケーリングを使用して決定され得る。
BLから導出される動きは、インターレイヤ基準画像エンハンスメントに対して効率的であり得る。BLでの動きは、BL符号化器により、レートオーバヘッドを考慮し得るレート歪みコストを使用して決定され得る。BL符号化器は、ILRエンハンスメントプロセスでのレートを考慮し得る。動き情報は、BLから導出され得る。双予測モードに対しては、BL符号化器は、動き情報の2つのセット、たとえばlist0およびlist1を提供し得る。ILRエンハンスメントは、list0、list1、または両方を使用することを決定し得る。決定は、歪みに基づくものであり得る。list0および/またはlist1の動きに対する歪みは、たとえば、式(14)(15)、それぞれを使用して決定され得る。式16は、list0およびlist1の動きを使用する双予測に対して使用され得る。符号化器および/または復号器は、ILRエンハンスメントに対する最小量の歪みにより特徴付けられるリストを使用することを決定し得る。
Distlist0=Dist(B(IL),MCILP(ILref_idx(list0),MVlist0)) (14)
Distlist1=Dist(B(IL),MCILP(ILref_idx(list1),MVlist1)) (15)
Distlist0,list1=Dist(B(IL),(MCILP(ILref_list(list0),MVlist0)+MCILP(ILref_list(list1),MVlist1))/2) (16)
動き精密化および/または選択プロセスは、明示的または暗示的であり得る。明示的な動き精密化および/または選択は、符号化器で履行され得、符号化器は、精密化および/または選択情報を復号器にシグナリングし得る。精密化および/または選択情報をシグナリングすることにより、復号複雑度は、オーバヘッドを増大することにより低減され得る。暗示的なモードでは、符号化器および復号器が、精密化および/または選択を実行し得る。符号化器が動き情報を復号器にシグナリングすることの必要性が存在しない場合がある。そうすることにより、オーバヘッドビットは、たとえば、復号複雑度を増大することにより節約され得る。
E−ILR画像の1または複数のブロックは、(たとえば、式3、4、7、8、9、および、10への参照によって説明されるような)差分に基づく方法、(たとえば、式5、6への参照によって説明されるような)残差に基づく方法、正規ILRブロック生成方法(たとえば、並置されるBLブロックをアップサンプリングすること)、単予測に基づく方法、双予測に基づく方法、別のE−ILRブロック生成方法、および/または組み合わせを使用して生成され得る。エンハンスメント方法は、たとえば多重のエンハンスメント方法が使用されるならば、領域(たとえば、各々の領域)に対して、明示的または暗示的に合図され得る。モードは、動き(たとえば、大きな動き、小さな動き、0動き)、テクスチャ(たとえば、連続階調、不連続階調、色の数)、エッジ強度(たとえば、強い、中間、弱い)、および/または類するものなどの、1または複数のローカル特性によって判断され得る。E−ILR画像のブロックは、異なる特性を、たとえば、使用される生成方法に基づいて有し得る。E−ILRブロックは、エンハンスされた、および/もしくは増大された高周波数情報、ベースレイヤ圧縮からの補償された低周波数エネルギー損失、ならびに/または、ベースレイヤ符号化での軽減された圧縮アーチファクト(たとえば、リンギング、ブロッキング)により特徴付けられ得る。E−ILRブロック生成方法(たとえば、差分に基づく、残差に基づく、単予測に基づく、双予測に基づくなど)は、E−ILR画像を生成するために組み合わされ得る。E−ILRブロック生成方法が一体に組み合わされるならば、圧縮効率は改善され得る。現在の画像の符号化のために符号化器により使用されるE−ILRブロック生成方法は、たとえば、復号複雑度を低減するためにシグナリングされ得る(たとえば、明示的にシグナリングされ得る)。復号器は、符号化器によりシグナリングされるE−ILRブロック生成方法を、たとえば、E−ILRブロック生成方法の各々を試行することの代わりに適用し得る。復号器は、たとえば、生成方法が暗示的にシグナリングされるならば、E−ILRブロック生成方法を、オンラインで、各々のブロックのローカル特性によって導出し得る。
2つの、またはより多いE−ILRブロック生成方法は、たとえば、基準画像リストのサイズを増大し、E−ILR画像を基準画像リストに挿入することにより、E−ILR画像のブロックを生成するために組み合わされ得る。E−ILR画像は、list0、list1、または両方に挿入され得る。図17は、基準画像リスト内へのE−ILR画像の例示的な配置の線図である。線図1700では、1または複数のILR画像1702が、Bスライスのlist0内に配置され得、1または複数のE−ILR画像が、Bスライスのlist1内に配置され得る。Pスライスでは、1または複数のE−ILR画像1704が、list0内の1または複数のILR画像1702の後に配置され得る。
E−ILRブロック生成方法は、たとえば、ブロックに基づく組み合わせ(たとえば、明示的な組み合わせ)を使用して、E−ILR画像を生成するために組み合わされ得る。E−ILR画像のブロック(たとえば、各々のブロック)は、異なるE−ILRブロック生成方法を使用して生成され得る。符号化器および復号器は、E−ILR画像を生成し、および/または、E−ILR画像を基準画像リストに挿入し得る。符号化器は、E−ILR画像のブロック(たとえば、各々のブロック)に対して使用されるE−ILRブロック生成方法を決定し得る。たとえばE−ILRブロック生成方法は、レート歪み最適化判定基準に基づいて選択され得る。符号化器は、ブロックの生成方法を復号器にシグナリングし得る。情報は、たとえば適応パラメータセット(APS)などの、インターレイヤ処理パラメータセットを伝達するために使用されるNALユニット内に埋め込まれ得る。可変ブロックサイズに基づくコーディング(たとえば、四分木に基づくコーディング)が、E−ILRブロック生成方法情報を符号化するために使用され得る。ブロック(たとえば、各々のブロック)のE−ILRブロック生成方法情報は、ランレングスコーディングによって符号化され得る。
図18は、ランレングスコーディングに対する異なるスキャンパターンの例の線図である。たとえば、ランレングスコーディングに対するスキャンパターンは、水平1802、垂直1804、水平ジグザグ1806、垂直ジグザグ1808、水平ラスタ1810、垂直ラスタ1812、および/または類するものを含み得る。2Dデータマップは、たとえば、異なるスキャンパターンによって符号化するために、1Dマップに転換され得る。ランは、データの再現する回数と呼ばれ得る。2Dマップのランレングスコーディングに対する、1または複数の(たとえば、2つの)タイプのランが、たとえば、情報をより効率的に圧縮するために提供され得る。ランは、符号化データを、転換された1D順序でのすぐの隣接物と比較することにより導出され得る。ランは、従来型のランレングスコーディングで使用され得る。ランは、データを空間的隣接物と比較することにより導出され得る。
図19は、水平スキャンによって符号化される2Dマップ1900の例の線図である。スキャニングの後で符号化されることになるシンボルは、1または複数のパラメータ(たとえば、たとえばラン、タイプ、および/または、値を含む3つのパラメータ)として表され得る。ランは、再現する回数の数を指し得る。たとえばランは、値を変化させることなく進行させられる距離を指し得る。タイプは、ランのタイプを指し得る。値は、再現された値の後のすぐのデータを指し得る。方向は、進行の方向を指し得る。図19で示すように、Hは、ランが水平スキャニング順序で導出され得るということを指示し得る。Tは、ランがその上部隣接物から導出されるということを指示し得る。バイナリマップに対しては、値は、それは以前のデータから導出され得るので、コーディングされない場合がある。圧縮比率は、データの異なる分配のために、異なるスキャニングパターンによって変動し得る。符号化器は、スキャンパターンをマップ(たとえば、各々のマップ)に対して判断し得、および/または、スキャンパターンを復号器にシグナリングし得る。
ブロックに基づく組み合わせ(たとえば、暗示的な組み合わせ)が提供され得る。符号化器および/または復号器は、E−ILR画像を生成し、E−ILR画像を基準画像リストに挿入し得る。符号化器および/または復号器は、たとえば、ブロックの生成方法情報を(たとえば、明示的に)やり取りすることの代わりに、導出プロセス(たとえば、同じ導出プロセス)を適用して、ブロックの生成方法情報を、1または複数の特性に基づいて決定し得る。たとえばブロックは、(たとえば、ブロックが平坦であるならば、または、ブロックがエッジブロックであるならば)たとえばテクスチャを含み得る、1または複数のローカルイメージ統計的特徴に基づいて、1または複数のタイプに分類され得る。E−ILRブロック生成方法は、ブロックタイプに基づいて適用され得る。
図20Aは、1または複数の開示される実施形態が実装され得る、例示的な通信システム2000の線図である。通信システム2000は、ボイス、データ、ビデオ、メッセージング、ブロードキャストなどのコンテンツを、多重のワイヤレスユーザに提供する多元接続システムであり得る。通信システム2000は、多重のワイヤレスユーザが、そのようなコンテンツに、ワイヤレス帯域幅を含むシステムリソースの共有によってアクセスすることを可能にし得る。たとえば通信システム2000は、符号分割多元接続(CDMA:code division multiple access)、時分割多元接続(TDMA:time division multiple access)、周波数分割多元接続(FDMA:frequency division multiple access)、直交FDMA(OFDMA:orthogonal FDMA)、シングルキャリアFDMA(SC−FDMA:single-carrier FDMA)、および類するものなどの、1または複数のチャネルアクセス方法を用い得る。
図20Aに示されるように通信システム2000は、ワイヤレス送受信ユニット(WTRU)2002a、2002b、2002c、および/または、2002d(全体的または集合的に、WTRU2002と呼ばれ得る)、無線アクセスネットワーク(RAN)2003/2004/2005、コアネットワーク2006/2007/2009、公衆交換電話ネットワーク(PSTN:public switched telephone network)2008、インターネット2010、ならびに、他のネットワーク2012を含み得るが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、および/または、ネットワーク要素を企図するということが認識されよう。WTRU2002a、2002b、2002c、2002dの各々は、ワイヤレス環境で動作および/または通信するように構成される、任意のタイプのデバイスであり得る。例として、WTRU2002a、2002b、2002c、2002dは、ワイヤレス信号を送信および/または受信するように構成され得、ワイヤレス送受信ユニット(WTRU)、移動局、固定された、または移動の加入者ユニット、ページャ、セルラー電話、パーソナルデジタルアシスタント(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、ワイヤレスセンサ、消費者電子機器、および類するものを含み得る。
通信システム2000はさらには、基地局2014aおよび基地局2014bを含み得る。基地局2014a、2014bの各々は、WTRU2002a、2002b、2002c、2002dの少なくとも1つとワイヤレスでインターフェイス接続して、コアネットワーク2006/2007/2009、インターネット2010、および/または、ネットワーク2012などの、1または複数の通信ネットワークへのアクセスを容易にするように構成される、任意のタイプのデバイスであり得る。例として、基地局2014a、2014bは、基地トランシーバ局(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、サイトコントローラ、アクセスポイント(AP)、ワイヤレスルータ、および類するものであり得る。基地局2014a、2014bは各々、単一の要素として描写されるが、基地局2014a、2014bは、任意の数の相互接続される基地局および/またはネットワーク要素を含み得るということが認識されよう。
基地局2014aは、RAN2003/2004/2005の部分であり得、そのRAN2003/2004/2005はさらには、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC:radio network controller)、中継ノードなどの、他の基地局および/またはネットワーク要素(図示せず)を含み得る。基地局2014aおよび/または基地局2014bは、セル(図示せず)と呼ばれ得る個別の地理的領域の内部でワイヤレス信号を送信および/または受信するように構成され得る。セルは、セルセクタにさらに分割され得る。たとえば、基地局2014aに関連付けられたセルは、3つのセクタに分割され得る。したがって、1つの実施形態では基地局2014aは、3つのトランシーバを、たとえば、セルの各々のセクタに対して1つを含み得る。実施形態では基地局2014aは、多重入力多重出力(MIMO:multiple-input multiple output)技術を用い得、したがって、多重のトランシーバをセルの各々のセクタに対して利用し得る。
基地局2014a、2014bは、WTRU2002a、2002b、2002c、2002dの1または複数と、エアインターフェイス2015/2016/2017によって通信し得、そのエアインターフェイス2015/2016/2017は、任意の適したワイヤレス通信リンク(たとえば、無線周波数(RF)、マイクロウェーブ、赤外線(IR)、紫外線(UV)、可視光など)であり得る。エアインターフェイス2015/2016/2017は、任意の適した無線アクセス技術(RAT:radio access technology)を使用して確立され得る。
より具体的には、上記で記載されたように、通信システム2000は、多元接続システムであり得、CDMA、TDMA、FDMA、OFDMA、SC−FDMA、および類するものなどの、1または複数のチャネルアクセス体系を用い得る。たとえば、RAN2003/2004/2005内の基地局2014a、および、WTRU2002a、2002b、2002cは、広帯域CDMA(WCDMA(登録商標):wideband CDMA)を使用してエアインターフェイス2015/2016/2017を確立し得る、ユニバーサル移動電気通信システム(UMTS:Universal Mobile Telecommunications System)地上無線アクセス(UTRA:UMTS Terrestrial Radio Access)などの無線技術を実装し得る。WCDMAは、高速パケットアクセス(HSPA:High-Speed Packet Access)および/またはEvolved HSPA(HSPA+)などの通信プロトコルを含み得る。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含み得る。
実施形態では、基地局2014a、および、WTRU2002a、2002b、2002cは、長期進化(LTE)および/またはLTE−アドバンスト(LTE−A)を使用してエアインターフェイス2015/2016/2017を確立し得る、Evolved UMTS地上無線アクセス(E−UTRA)などの無線技術を実装し得る。
実施形態では、基地局2014a、および、WTRU2002a、2002b、2002cは、IEEE802.16(たとえば、ワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(WiMAX:Worldwide Interoperability for Microwave Access))、CDMA2000、CDMA2000 1X、CDMA2000EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動通信用グローバルシステム(GSM(登録商標))、GSM進化用エンハンスされたデータレート(EDGE:Enhanced Data rates for GSM Evolution)、GSM EDGE(GERAN)、および類するものなどの無線技術を実装し得る。
図20Aでの基地局2014bは、たとえば、ワイヤレスルータ、ホームノードB、ホームeノードB、または、アクセスポイントであり得、仕事の場、ホーム、乗物、構内、および類するものなどの局限されたエリアでワイヤレス接続性を容易にするために、任意の適したRATを利用し得る。1つの実施形態では、基地局2014b、および、WTRU2002c、2002dは、IEEE802.11などの無線技術を実装して、ワイヤレスローカルエリアネットワーク(WLAN)を確立し得る。実施形態では、基地局2014b、および、WTRU2002c、2002dは、IEEE802.15などの無線技術を実装して、ワイヤレスパーソナルエリアネットワーク(WPAN)を確立し得る。さらに実施形態では、基地局2014b、および、WTRU2002c、2002dは、セルラーに基づくRAT(たとえば、WCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用して、ピコセルまたはフェムトセルを確立し得る。図20Aに示されるように、基地局2014bは、インターネット2010への直接接続を有し得る。したがって基地局2014bは、コアネットワーク2006/2007/2009によってインターネット2010にアクセスすることを必要とされ得ない。
RAN2003/2004/2005は、コアネットワーク2006/2007/2009との通信の状態にあり得、そのコアネットワーク2006/2007/2009は、ボイス、データ、アプリケーション、および/または、ボイスオーバインターネットプロトコル(VoIP)サービスを、WTRU2002a、2002b、2002c、2002dの1または複数に提供するように構成される、任意のタイプのネットワークであり得る。たとえばコアネットワーク2006/2007/2009は、呼制御、ビリングサービス、移動場所に基づくサービス、プリペイド呼、インターネット接続性、ビデオ分配などを提供し、および/または、ユーザ認証などの高レベルセキュリティ機能を実行し得る。図20Aには示されないが、RAN2003/2004/2005、および/または、コアネットワーク2006/2007/2009は、RAN2003/2004/2005と同じRATを、または異なるRATを用いる他のRANとの、直接または間接の通信の状態にあり得るということが認識されよう。たとえば、E−UTRA無線技術を利用している場合があるRAN2003/2004/2005に接続されていることへの追加で、コアネットワーク2006/2007/2009はさらには、GSM無線技術を用いるRAN(図示せず)との通信の状態にあり得る。
コアネットワーク2006/2007/2009はさらには、WTRU2002a、2002b、2002c、2002dが、PSTN2008、インターネット2010、および/または、他のネットワーク2012にアクセスするためのゲートウェイとしてサービングし得る。PSTN2008は、基本電話サービス(POTS:plain old telephone service)を提供する回線交換電話ネットワークを含み得る。インターネット2010は、相互接続されるコンピュータネットワークおよびデバイスのグローバルシステムを含み得、それらのコンピュータネットワークおよびデバイスは、送信制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、および、インターネットプロトコル(IP)などの、TCP/IPインターネットプロトコルスイートの形での共通通信プロトコルを使用するものである。ネットワーク2012は、他のサービスプロバイダにより所有される、および/または動作させられる、ワイヤードまたはワイヤレス通信ネットワークを含み得る。たとえばネットワーク2012は、RAN2003/2004/2005と同じRATを、または異なるRATを用い得る、1または複数のRANに接続されるコアネットワークを含み得る。
通信システム2000内のWTRU2002a、2002b、2002c、2002dの一部またはすべては、マルチモード能力を含み得、たとえば、WTRU2002a、2002b、2002c、2002dは、異なるワイヤレスリンクによって異なるワイヤレスネットワークと通信するための多重のトランシーバを含み得る。たとえば、図20Aに示されるWTRU2002cは、セルラーに基づく無線技術を用い得る基地局2014aと、および、IEEE802無線技術を用い得る基地局2014bと通信するように構成され得る。
図20Bは、例示的なWTRU2002のシステム線図である。図20Bに示されるようにWTRU2002は、プロセッサ2018、トランシーバ2020、送受信要素2022、スピーカ/マイクロホン2024、キーパッド2026、ディスプレイ/タッチパッド2028、取り外し不能メモリ2030、取り外し可能メモリ2032、パワーソース2034、グローバルポジショニングシステム(GPS)チップセット2036、および、他の周辺装置2038を含み得る。WTRU2002は、前述の要素の任意の副組み合わせを含むことが、実施形態と矛盾しないまま可能であるということが認識されよう。さらには、実施形態は、基地局2014aおよび2014b、ならびに/または、中でも、トランシーバ局(BTS)、ノードB、サイトコントローラ、アクセスポイント(AP)、ホームノードB、evolvedホームノードB(eノードB)、ホームevolvedノードB(HeNB)、ホームevolvedノードBゲートウェイ、および、プロキシノードなどの、ただしそれらに制限されない、基地局2014aおよび2014bが表し得るノードが、図20Bで描写される、および、本明細書で説明される、要素の一部または各々を含み得るということを企図する。
プロセッサ2018は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアとの関連の状態にある1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他のタイプの集積回路(IC)、状態機械、および類するものであり得る。プロセッサ2018は、信号コーディング、データ処理、パワー制御、入力/出力処理、および/または、WTRU2002がワイヤレス環境で動作することを可能にする任意の他の機能性を実行し得る。プロセッサ2018はトランシーバ2020に結合され得、そのトランシーバ2020は送受信要素2022に結合され得る。図20Bはプロセッサ2018およびトランシーバ2020を別々のコンポーネントとして描写するが、プロセッサ2018およびトランシーバ2020は、電子パッケージまたはチップ内に一体に集積され得るということが認識されよう。
送受信要素2022は、エアインターフェイス2015/2016/2017によって、信号を基地局(たとえば、基地局2014a)に送信し、または、信号をその基地局から受信するように構成され得る。たとえば、1つの実施形態では送受信要素2022は、RF信号を送信および/または受信するように構成されるアンテナであり得る。実施形態では送受信要素2022は、たとえばIR信号、UV信号、または、可視光信号を、送信および/または受信するように構成される放射器/検出器であり得る。さらに実施形態では送受信要素2022は、RF信号および光信号の両方を、送信および受信するように構成され得る。送受信要素2022は、ワイヤレス信号の任意の組み合わせを送信および/または受信するように構成され得るということが認識されよう。
さらに、送受信要素2022は、単一の要素として図20Bで描写されるが、WTRU2002は、任意の数の送受信要素2022を含み得る。より具体的にはWTRU2002は、MIMO技術を用い得る。したがって、1つの実施形態ではWTRU2002は、エアインターフェイス2015/2016/2017によってワイヤレス信号を送信および受信するための、2つの、またはより多い送受信要素2022(たとえば、多重のアンテナ)を含み得る。
トランシーバ2020は、送受信要素2022により送信されることになる信号を変調するように、および、送受信要素2022により受信される信号を復調するように構成され得る。上記で記載されたようにWTRU2002は、マルチモード能力を有し得る。したがってトランシーバ2020は、WTRU2002が、たとえばUTRAおよびIEEE802.11などの多重のRATによって通信することを可能にするための多重のトランシーバを含み得る。
WTRU2002のプロセッサ2018は、スピーカ/マイクロホン2024、キーパッド2026、および/または、ディスプレイ/タッチパッド2028(たとえば、液晶ディスプレイ(LCD)ディスプレイユニット、または、有機光放射ダイオード(OLED)ディスプレイユニット)に結合され得、ユーザ入力データを、それらのスピーカ/マイクロホン2024、キーパッド2026、および/または、ディスプレイ/タッチパッド2028から受信し得る。プロセッサ2018はさらには、ユーザデータを、スピーカ/マイクロホン2024、キーパッド2026、および/または、ディスプレイ/タッチパッド2028に出力し得る。さらに、プロセッサ2018は、取り外し不能メモリ2030および/または取り外し可能メモリ2032などの、任意のタイプの適したメモリからの情報にアクセスし、データをそのメモリに記憶し得る。取り外し不能メモリ2030は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク、または、任意の他のタイプのメモリ記憶デバイスを含み得る。取り外し可能メモリ2032は、加入者識別モジュール(SIM)カード、memory stick、secure digital(SD)メモリカード、および類するものを含み得る。実施形態ではプロセッサ2018は、サーバまたはホームコンピュータ(図示せず)上など、WTRU2002上に物理的に配置されないメモリからの情報にアクセスし、データをそのメモリに記憶し得る。
プロセッサ2018は、パワーソース2034からパワーを受信し得、WTRU2002内の他のコンポーネントに対するパワーを分配および/または制御するように構成され得る。パワーソース2034は、WTRU2002にパワー供給するための任意の適したデバイスであり得る。たとえばパワーソース2034は、1または複数のドライセルバッテリ(たとえば、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル金属水素化物(NiMH)、リチウムイオン(Liイオン)など)、ソーラーセル、燃料セル、および類するものを含み得る。
プロセッサ2018はさらには、GPSチップセット2036に結合され得、そのGPSチップセット2036は、WTRU2002の現在の場所に関する場所情報(たとえば、経度および緯度)を提供するように構成され得る。GPSチップセット2036からの情報への追加で、またはその情報の代わりに、WTRU2002は、基地局(たとえば、基地局2014a、2014b)からエアインターフェイス2015/2016/2017によって場所情報を受信し、および/または、2つの、もしくはより多い付近の基地局から受信されている信号のタイミングに基づいてその場所を決定し得る。WTRU2002は、任意の適した場所決定方法により場所情報を入手することが、実施形態と矛盾しないまま可能であるということが認識されよう。
プロセッサ2018は、他の周辺装置2038にさらに結合され得、それらの他の周辺装置2038は、追加的な特徴、機能性、および/または、ワイヤードもしくはワイヤレス接続性を提供する、1または複数のソフトウェアおよび/またはハードウェアモジュールを含み得る。たとえば周辺装置2038は、加速度計、電子コンパス、衛星トランシーバ、デジタルカメラ(写真またはビデオ用)、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビトランシーバ、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)無線ユニット、デジタル音楽プレイヤ、メディアプレイヤ、ビデオゲームプレイヤモジュール、インターネットブラウザ、および類するものを含み得る。
図20Cは、実施形態によるRAN2003およびコアネットワーク2006のシステム線図である。上記で記載されたようにRAN2003は、UTRA無線技術を用いて、エアインターフェイス2015によってWTRU2002a、2002b、2002cと通信し得る。RAN2003はさらには、コアネットワーク2006との通信の状態にあり得る。図20Cに示されるようにRAN2003は、ノードB2040a、2040b、2040cを含み得、それらのノードは各々、エアインターフェイス2015によってWTRU2002a、2002b、2002cと通信するための1または複数のトランシーバを含み得る。ノードB2040a、2040b、2040cは各々、RAN2003の内部の個別のセル(図示せず)に関連付けられ得る。RAN2003はさらには、RNC2042a、2042bを含み得る。RAN2003は、任意の数のノードBおよびRNCを含むことが、実施形態と矛盾しないまま可能であるということが認識されよう。
図20Cに示されるように、ノードB2040a、2040bは、RNC2042aとの通信の状態にあり得る。追加的に、ノードB2040cは、RNC2042bとの通信の状態にあり得る。ノードB2040a、2040b、2040cは、IubインターフェイスによってそれぞれのRNC2042a、2042bと通信し得る。RNC2042a、2042bは、Iurインターフェイスによって互いとの通信の状態にあり得る。RNC2042a、2042bの各々は、それが接続されるそれぞれのノードB2040a、2040b、2040cを制御するように構成され得る。さらに、RNC2042a、2042bの各々は、アウターループパワー制御、負荷制御、受付制御、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシティ、セキュリティ機能、データ暗号化、および類するものなどの、他の機能性を履行またはサポートするように構成され得る。
図20Cに示されるコアネットワーク2006は、メディアゲートウェイ(MGW:media gateway)2044、移動交換センタ(MSC:mobile switching center)2046、サービングGPRSサポートノード(SGSN:serving GPRS support node)2048、および/または、ゲートウェイGPRSサポートノード(GGSN:gateway GPRS support node)2050を含み得る。前述の要素の各々は、コアネットワーク2006の部分として描写されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられる場合があるということが認識されよう。
RAN2003内のRNC2042aは、IuCSインターフェイスによってコアネットワーク2006内のMSC2046に接続され得る。MSC2046は、MGW2044に接続され得る。MSC2046およびMGW2044は、WTRU2002a、2002b、2002cに、PSTN2008などの回線交換ネットワークへのアクセスを提供して、WTRU2002a、2002b、2002cと、従前の陸線通信デバイスとの間の通信を容易にし得る。
RAN2003内のRNC2042aはさらには、IuPSインターフェイスによってコアネットワーク2006内のSGSN2048に接続され得る。SGSN2048は、GGSN2050に接続され得る。SGSN2048およびGGSN2050は、WTRU2002a、2002b、2002cに、インターネット2010などのパケット交換ネットワークへのアクセスを提供して、WTRU2002a、2002b、2002cと、IP対応のデバイスとの間の通信を容易にし得る。
上記で記載されたようにコアネットワーク2006はさらには、他のサービスプロバイダにより所有される、および/または動作させられる、他のワイヤードまたはワイヤレスネットワークを含み得るネットワーク2012に接続され得る。
図20Dは、実施形態によるRAN2004およびコアネットワーク2007のシステム線図である。上記で記載されたようにRAN2004は、E−UTRA無線技術を用いて、エアインターフェイス2016によってWTRU2002a、2002b、2002cと通信し得る。RAN2004はさらには、コアネットワーク2007との通信の状態にあり得る。
RAN2004は、eノードB2060a、2060b、2060cを含み得るが、RAN2004は任意の数のeノードBを含むことが、実施形態と矛盾しないまま可能であるということが認識されよう。eノードB2060a、2060b、2060cは各々、エアインターフェイス2016によってWTRU2002a、2002b、2002cと通信するための1または複数のトランシーバを含み得る。1つの実施形態では、eノードB2060a、2060b、2060cは、MIMO技術を実装し得る。したがってeノードB2060aは、たとえば、多重のアンテナを使用して、WTRU2002aにワイヤレス信号を送信し、WTRU2002aからワイヤレス信号を受信し得る。
eノードB2060a、2060b、2060cの各々は、個別のセル(図示せず)に関連付けられ得、無線リソース管理判断、ハンドオーバ判断、アップリンクおよび/またはダウンリンクでのユーザのスケジューリング、ならびに類するものに対処するように構成され得る。図8Dに示されるようにeノードB2060a、2060b、2060cは、X2インターフェイスによって互いに通信し得る。
図8Dに示されるコアネットワーク2007は、モビリティ管理ゲートウェイ(MME:mobility management gateway)2062、サービングゲートウェイ2064、および、パケットデータネットワーク(PDN)ゲートウェイ2066を含み得る。前述の要素の各々は、コアネットワーク2007の部分として描写されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられる場合があるということが認識されよう。
MME2062は、S1インターフェイスによってRAN2004内のeノードB2060a、2060b、2060cの各々に接続され得、制御ノードとしてサービングし得る。たとえばMME2062は、WTRU2002a、2002b、2002cのユーザを認証すること、ベアラアクティブ化/非アクティブ化、WTRU2002a、2002b、2002cの初期アタッチの間に個別のサービングゲートウェイを選択すること、および類するものに対して責任を負う場合がある。MME2062はさらには、RAN2004と、GSMまたはWCDMAなどの他の無線技術を用いる他のRAN(図示せず)との間で交換するための制御プレーン機能を提供し得る。
サービングゲートウェイ2064は、S1インターフェイスによってRAN2004内のeノードB2060a、2060b、2060cの各々に接続され得る。サービングゲートウェイ2064は、全体的には、WTRU2002a、2002b、2002cへの/からのユーザデータパケットを、ルーティングおよびフォワーディングし得る。サービングゲートウェイ2064はさらには、インターeノードBハンドオーバの間にユーザプレーンをアンカリングすること、ダウンリンクデータがWTRU2002a、2002b、2002cに対して利用可能であるときにページングをトリガリングすること、WTRU2002a、2002b、2002cのコンテキストを管理および記憶すること、ならびに類することなどの、他の機能を実行し得る。
サービングゲートウェイ2064はさらには、PDNゲートウェイ2066に接続され得、そのPDNゲートウェイ2066は、WTRU2002a、2002b、2002cに、インターネット2010などのパケット交換ネットワークへのアクセスを提供して、WTRU2002a、2002b、2002cと、IP対応のデバイスとの間の通信を容易にし得る。
コアネットワーク2007は、他のネットワークとの通信を容易にし得る。たとえばコアネットワーク2007は、WTRU2002a、2002b、2002cに、PSTN2008などの回線交換ネットワークへのアクセスを提供して、WTRU2002a、2002b、2002cと、従前の陸線通信デバイスとの間の通信を容易にし得る。たとえばコアネットワーク2007は、コアネットワーク2007とPSTN2008との間のインターフェイスとしてサービングする、IPゲートウェイ(たとえば、IPマルチメディアサブシステム(IMS)サーバ)を含み得る、または、そのIPゲートウェイと通信し得る。さらに、コアネットワーク2007は、WTRU2002a、2002b、2002cに、ネットワーク2012へのアクセスを提供し得、それらのネットワーク2012は、他のサービスプロバイダにより所有される、および/または動作させられる、他のワイヤードまたはワイヤレスネットワークを含み得る。
図20Eは、実施形態によるRAN2005およびコアネットワーク2009のシステム線図である。RAN2005は、IEEE802.16無線技術を用いて、エアインターフェイス2017によってWTRU2002a、2002b、2002cと通信する、アクセスサービスネットワーク(ASN:access service network)であり得る。下記でさらに論考されることになるように、WTRU2002a、2002b、2002c、RAN2005、および、コアネットワーク2009の異なる機能エンティティ間の通信リンクは、基準ポイントとして定義され得る。
図20Eに示されるようにRAN2005は、基地局2080a、2080b、2080c、および、ASNゲートウェイ2082を含み得るが、RAN2005は、任意の数の基地局およびASNゲートウェイを含むことが、実施形態と矛盾しないまま可能であるということが認識されよう。基地局2080a、2080b、2080cは各々、RAN2005内の個別のセル(図示せず)に関連付けられ得、各々、エアインターフェイス2017によってWTRU2002a、2002b、2002cと通信するための1または複数のトランシーバを含み得る。1つの実施形態では、基地局2080a、2080b、2080cは、MIMO技術を実装し得る。したがって基地局2080aは、たとえば、多重のアンテナを使用して、WTRU2002aにワイヤレス信号を送信し、WTRU2002aからワイヤレス信号を受信し得る。基地局2080a、2080b、2080cはさらには、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、サービスの品質(QoS)ポリシー強制、および類するものなどのモビリティ管理機能を提供し得る。ASNゲートウェイ2082は、トラフィック集約ポイントとしてサービングし得、ページング、加入者プロファイルのキャッシング、コアネットワーク2009へのルーティング、および類するものに対して責任を負う場合がある。
WTRU2002a、2002b、2002cと、RAN2005との間のエアインターフェイス2017は、IEEE802.16仕様を実装するR1基準ポイントとして定義され得る。さらに、WTRU2002a、2002b、2002cの各々は、コアネットワーク2009との論理インターフェイス(図示せず)を確立し得る。WTRU2002a、2002b、2002cと、コアネットワーク2009との間の論理インターフェイスは、認証、許可、IPホスト構成管理、および/または、モビリティ管理に対して使用され得る、R2基準ポイントとして定義され得る。
基地局2080a、2080b、2080cの各々の間の通信リンクは、WTRUハンドオーバ、および、基地局間のデータの転送を容易にするためのプロトコルを含む、R8基準ポイントとして定義され得る。基地局2080a、2080b、2080cと、ASNゲートウェイ2082との間の通信リンクは、R6基準ポイントとして定義され得る。R6基準ポイントは、WTRU2002a、2002b、2002cの各々に関連付けられたモビリティイベントに基づくモビリティ管理を容易にするためのプロトコルを含み得る。
図20Eに示されるようにRAN2005は、コアネットワーク2009に接続され得る。RAN2005とコアネットワーク2009との間の通信リンクは、たとえば、データ転送およびモビリティ管理能力を容易にするためのプロトコルを含む、R3基準ポイントとして定義され得る。コアネットワーク2009は、移動IPホームエージェント(MIP−HA:mobile IP home agent)2084、認証、許可、アカウンティング(AAA:authentication, authorization, accounting)サーバ2086、および、ゲートウェイ2088を含み得る。前述の要素の各々は、コアネットワーク2009の部分として描写されるが、これらの要素の任意のものは、コアネットワークオペレータ以外のエンティティにより所有される、および/または動作させられる場合があるということが認識されよう。
MIP−HAは、IPアドレス管理に対して責任を負う場合があり、WTRU2002a、2002b、2002cが、異なるASNおよび/または異なるコアネットワークの間でローミングすることを可能にし得る。MIP−HA2084は、WTRU2002a、2002b、2002cに、インターネット2010などのパケット交換ネットワークへのアクセスを提供して、WTRU2002a、2002b、2002cと、IP対応のデバイスとの間の通信を容易にし得る。AAAサーバ2086は、ユーザ認証に対して、および、ユーザサービスをサポートすることに対して責任を負う場合がある。ゲートウェイ2088は、他のネットワークとのインターワーキングを容易にし得る。たとえばゲートウェイ2088は、WTRU2002a、2002b、2002cに、PSTN2008などの回線交換ネットワークへのアクセスを提供して、WTRU2002a、2002b、2002cと、従前の陸線通信デバイスとの間の通信を容易にし得る。さらに、ゲートウェイ2088は、WTRU2002a、2002b、2002cに、ネットワーク2012へのアクセスを提供し得、それらのネットワーク2012は、他のサービスプロバイダにより所有される、および/または動作させられる、他のワイヤードまたはワイヤレスネットワークを含み得る。
図20Eには示されないが、RAN2005は他のASNに接続され得、コアネットワーク2009は他のコアネットワークに接続され得るということが認識されよう。RAN2005と他のASNとの間の通信リンクは、R4基準ポイントとして定義され得、そのR4基準ポイントは、RAN2005と他のASNとの間の、WTRU2002a、2002b、2002cのモビリティを調和させるためのプロトコルを含み得る。コアネットワーク2009と他のコアネットワークとの間の通信リンクは、R5基準として定義され得、そのR5基準は、ホームコアネットワークと、訪問されるコアネットワークとの間のインターワーキングを容易にするためのプロトコルを含み得る。
上記で説明されたプロセスは、コンピュータまたはプロセッサによる実行のためにコンピュータ可読メディアに組み込まれる、コンピュータプログラム、ソフトウェア、または、ファームウェアの形で実装され得る。コンピュータ可読メディアの例は、電子信号(ワイヤードまたはワイヤレス接続によって送信される)、および、コンピュータ可読記憶メディアを含む。コンピュータ可読記憶メディアの例は、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよび取り外し可能ディスクなどの磁気メディア、磁気光学メディア、ならびに、CD−ROMディスクおよびデジタルバーサタイルディスク(DVD)などの光学メディアを含むが、それらに制限されない。ソフトウェアとの関連の状態にあるプロセッサは、WTRU、UE、端末、基地局、RNC、または、任意のホストコンピュータでの使用のための無線周波数トランシーバを実装するために使用され得る。

Claims (20)

  1. 第1の時間インスタンスを、第2の時間インスタンスによって特徴付けられた第2のベースレイヤ画像に関連付けられたベースレイヤ動き情報に基づいて決定し、
    前記第1の時間インスタンスによって特徴付けられたエンハンスメントレイヤ画像のブロックから前記第1の時間インスタンスによって特徴付けられた第1のベースレイヤ画像のブロックを差し引いて、前記第1の時間インスタンスによって特徴付けられた差分ブロックを生成し、
    前記差分ブロック上で動き補償を実行し、
    動き補償された前記差分ブロックを、前記第2の時間インスタンスによって特徴付けられた前記第2のベースレイヤ画像のブロックに追加し、前記第2の時間インスタンスによって特徴付けられたエンハンスされたインターレイヤ基準(E−ILR)ブロックを生成する
    ように構成されたプロセッサを備えたことを特徴とするビデオデバイス。
  2. 前記第1のベースレイヤ画像の前記ブロックは、前記第1のベースレイヤ画像のアップサンプリングされたブロックであり、および前記第2のベースレイヤ画像の前記ブロックは、前記第2のベースレイヤ画像のアップサンプリングされたブロックであることを特徴とする請求項1に記載のビデオデバイス。
  3. 前記プロセッサは、前記動き補償された差分ブロックを前記第2のベースレイヤ画像の前記ブロックに追加する前に、前記動き補償された差分ブロックに重みを掛け合わせ、前記E−ILRブロックを生成するように構成されたことを特徴とする請求項1に記載のビデオデバイス。
  4. 前記重みは、0以上および1以下であることを特徴とする請求項3に記載のビデオデバイス。
  5. 前記プロセッサは、前記動き補償された差分ブロックを前記第2のベースレイヤ画像の前記ブロックに追加する前に、オフセットを前記動き補償された差分ブロックに追加し、前記E−ILRブロックを生成するように構成されたことを特徴とする請求項1に記載のビデオデバイス。
  6. 前記動き補償は、前記第2のベースレイヤ画像の前記ブロックに関連付けられたベースレイヤ動き情報を使用して、前記差分ブロック上で実行されることを特徴とする請求項1に記載のビデオデバイス。
  7. 前記ベースレイヤ動き情報は、動き情報クラスおよび動きベクトルのうちの1または複数を含むことを特徴とする請求項6に記載のビデオデバイス。
  8. 前記プロセッサは、前記E−ILRブロックを含む、前記第2の時間インスタンスによって特徴付けられたE−ILR画像を生成するように構成されたことを特徴とする請求項1に記載のビデオデバイス。
  9. 前記プロセッサは、前記E−ILR画像を使用して、前記第2の時間インスタンスによって特徴付けられたエンハンスメントレイヤ画像を予測するように構成されたことを特徴とする請求項8に記載のビデオデバイス。
  10. 第1の時間インスタンスを、第2の時間インスタンスによって特徴付けられた第2のベースレイヤ画像に関連付けられたベースレイヤ動き情報に基づいて決定し、
    前記第2のベースレイヤ画像のブロックから前記第1の時間インスタンスによって特徴付けられた第1のベースレイヤ画像の動き補償されたブロックを差し引いて、残差ブロックを生成し、
    前記残差ブロックを、前記第1の時間インスタンスによって特徴付けられたエンハンスメントレイヤ画像の動き補償されたブロックに追加し、前記第2の時間インスタンスによって特徴付けられたエンハンスされたインターレイヤ基準(E−ILR)ブロックを生成する
    ように構成されたプロセッサを備えたことを特徴とするビデオデバイス。
  11. 前記第1のベースレイヤ画像の前記ブロックは、前記第1のベースレイヤ画像のアップサンプリングされたブロックであり、および前記第2のベースレイヤ画像の前記ブロックは、前記第2のベースレイヤ画像のアップサンプリングされたブロックであることを特徴とする請求項10に記載のビデオデバイス。
  12. 前記プロセッサは、前記残差ブロックを前記エンハンスメントレイヤ画像の前記動き補償されたブロックに追加する前に、前記残差ブロックに重みを掛け合わせ、前記E−ILRブロックを生成するように構成されたことを特徴とする請求項10に記載のビデオデバイス。
  13. 前記プロセッサは、前記残差ブロックを前記エンハンスメントレイヤ画像の前記動き補償されたブロックに追加する前に、オフセットを残差ブロックに追加し、前記E−ILRブロックを生成するように構成されたことを特徴とする請求項10に記載のビデオデバイス。
  14. 前記プロセッサは、前記第2のベースレイヤ画像の前記ブロックに関連付けられたベースレイヤ動き情報を使用して、前記第1のベースレイヤ画像のブロック上で動き補償を実行し、前記第1のベースレイヤ画像の前記動き補償されたブロックを生成するように構成されたことを特徴とする請求項10に記載のビデオデバイス。
  15. 前記プロセッサは、前記E−ILRブロックを含む、前記第2の時間インスタンスによって特徴付けられたE−ILR画像を生成するように構成されたことを特徴とする請求項10に記載のビデオデバイス。
  16. 前記プロセッサは、前記E−ILR画像を使用して、前記第2の時間インスタンスによって特徴付けられたエンハンスメントレイヤ画像を予測するように構成されたことを特徴とする請求項15に記載のビデオデバイス。
  17. 第1の時間インスタンスを、第3の時間インスタンスによって特徴付けられた第3のベースレイヤ画像に関連付けられた第1のベースレイヤ動き情報に基づいて決定し、
    第2の時間インスタンスを、前記第3の時間インスタンスによって特徴付けられた前記第3のベースレイヤ画像に関連付けられた第2のベースレイヤ動き情報に基づいて決定し、
    前記第1の時間インスタンスによって特徴付けられた第1のベースレイヤ画像のブロック、および前記第2の時間インスタンスによって特徴付けられた第2のベースレイヤ画像のブロックを使用して、前記第3の時間インスタンスによって特徴付けられたエンハンスされたインターレイヤ基準(E−ILR)ブロックを生成する
    ように構成されたプロセッサを備えたことを特徴とするビデオデバイス。
  18. 前記E−ILRを生成するように構成された前記プロセッサは、
    第1のベースレイヤ画像の前記ブロックを、前記第2のベースレイヤ画像の前記ブロックに追加し、組み合わされたベースレイヤブロックを生成し、
    前記ベースレイヤブロックを2つに分割し、平均化されたベースレイヤブロックを作成し、
    前記第1の時間インスタンスによって特徴付けられた第1のエンハンスメントレイヤ画像のブロックを、前記第2の時間インスタンスによって特徴付けられた第2のエンハンスメントレイヤ画像のブロックに追加し、組み合わされたエンハンスメントレイヤブロックを作成し、
    前記組み合わされたエンハンスメントレイヤブロックを2つに分割し、平均化されたエンハンスメントレイヤブロックを生成し、
    前記平均化されたエンハンスメントレイヤブロックから前記平均化されたベースレイヤブロックを差し引いて、差分ブロックを生成し、
    前記差分ブロックを、前記第3のベースレイヤ画像のブロックに追加し、前記E−ILRブロックを生成する
    ように構成された前記プロセッサを含むことを特徴とする請求項17に記載のビデオデバイス。
  19. 前記第1のベースレイヤ画像の前記ブロックは、前記第1のベースレイヤ画像のアップサンプリングされたブロックであり、前記第2のベースレイヤ画像の前記ブロックは、前記第2のベースレイヤ画像のアップサンプリングされたブロックであり、前記第3のベースレイヤ画像の前記ブロックは、前記第3のベースレイヤ画像のアップサンプリングされたブロックであることを特徴とする請求項18に記載のビデオデバイス。
  20. 前記プロセッサは、前記差分ブロックを前記第3のベースレイヤ画像の前記ブロックに追加する前に、前記残差ブロックに重みを掛け合わせ、前記E−ILRブロックを生成するように構成されたことを特徴とする請求項18に記載のビデオデバイス。
JP2016506630A 2013-04-05 2014-04-04 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント Active JP6360154B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361809115P 2013-04-05 2013-04-05
US61/809,115 2013-04-05
US201361812687P 2013-04-16 2013-04-16
US61/812,687 2013-04-16
US201361845318P 2013-07-11 2013-07-11
US61/845,318 2013-07-11
PCT/US2014/032904 WO2014165721A1 (en) 2013-04-05 2014-04-04 Inter-layer reference picture enhancement for multiple layer video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018118039A Division JP6592145B2 (ja) 2013-04-05 2018-06-21 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント

Publications (2)

Publication Number Publication Date
JP2016535465A true JP2016535465A (ja) 2016-11-10
JP6360154B2 JP6360154B2 (ja) 2018-07-18

Family

ID=50733377

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016506630A Active JP6360154B2 (ja) 2013-04-05 2014-04-04 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント
JP2018118039A Active JP6592145B2 (ja) 2013-04-05 2018-06-21 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018118039A Active JP6592145B2 (ja) 2013-04-05 2018-06-21 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント

Country Status (7)

Country Link
US (1) US10708605B2 (ja)
EP (2) EP2982117B1 (ja)
JP (2) JP6360154B2 (ja)
KR (2) KR101915156B1 (ja)
CN (2) CN105122805B (ja)
TW (1) TW201511526A (ja)
WO (1) WO2014165721A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2997732A1 (en) * 2013-05-15 2016-03-23 VID SCALE, Inc. Single loop decoding based inter layer prediction
FR3008840A1 (fr) * 2013-07-17 2015-01-23 Thomson Licensing Procede et dispositif de decodage d'un train scalable representatif d'une sequence d'images et procede et dispositif de codage correspondants
US20150195549A1 (en) * 2014-01-08 2015-07-09 Qualcomm Incorporated Support of non-hevc base layer in hevc multi-layer extensions
US10390087B2 (en) 2014-05-01 2019-08-20 Qualcomm Incorporated Hypothetical reference decoder parameters for partitioning schemes in video coding
US20160064039A1 (en) * 2014-08-26 2016-03-03 Microsoft Corporation Thumbnail Generation
US20190191191A1 (en) * 2017-12-19 2019-06-20 Western Digital Technologies, Inc. Hybrid techniques for content distribution with edge devices
US10742736B2 (en) 2017-12-19 2020-08-11 Western Digital Technologies, Inc. Integrated erasure coding for data storage and transmission
US10720124B2 (en) * 2018-01-15 2020-07-21 Microsoft Technology Licensing, Llc Variable pixel rate display interfaces
US11544830B2 (en) 2018-01-23 2023-01-03 Imax Corporation Enhancing image data with appearance controls
WO2019168673A1 (en) * 2018-02-27 2019-09-06 Magic Leap, Inc. Matching meshes for virtual avatars
KR102030630B1 (ko) * 2018-04-30 2019-11-08 서울과학기술대학교 산학협력단 하이브리드 망 기반의 스테레오스코픽 3차원 360도 가상 현실 서비스 제공 시스템
BR112021006706A2 (pt) * 2018-10-09 2021-07-27 V-Nova International Limited decodificador de aprimoramento para sinais de vídeo com melhoria de múltiplos níveis e ajuste de formato de codificação
WO2020084506A1 (en) 2018-10-23 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Harmonized local illumination compensation and intra block copy coding
CN116939198A (zh) 2018-10-23 2023-10-24 北京字节跳动网络技术有限公司 并置的局部照明补偿和修改的帧间预测编解码
US20200186795A1 (en) * 2018-12-07 2020-06-11 Beijing Dajia Internet Information Technology Co., Ltd. Video coding using multi-resolution reference picture management
CN113475072B (zh) * 2019-03-04 2023-12-15 北京字节跳动网络技术有限公司 视频处理中滤波信息的信令
CN111726632B (zh) * 2019-03-18 2022-08-26 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
US20230052774A1 (en) * 2019-12-05 2023-02-16 Electronics And Telecommunications Research Institute Method, apparatus, and recording medium for region-based differential image encoding/decoding
US11677934B2 (en) * 2021-09-24 2023-06-13 Apple Inc. Encoding and decoding video content

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002315004A (ja) * 2001-04-09 2002-10-25 Ntt Docomo Inc 画像符号化方法及び装置、画像復号方法及び装置、並びに画像処理システム
WO2006006793A1 (en) * 2004-07-15 2006-01-19 Samsung Electronics Co., Ltd. Video encoding and decoding methods and video encoder and decoder
JP2009522972A (ja) * 2006-01-09 2009-06-11 ノキア コーポレイション スケーラブルなビデオ符号化におけるエラー耐性を有するモード決定
US20110261876A1 (en) * 2008-10-17 2011-10-27 Yih Han Tan Method for encoding a digital picture, encoder, and computer program element
JP2012054982A (ja) * 2002-07-15 2012-03-15 Thomson Licensing ビデオ復号化における参照ピクチャの適応重み付け
JP2012517140A (ja) * 2009-02-03 2012-07-26 トムソン ライセンシング ビット深度スケーラビリティにおける平滑参照フレームを用いた動き補償のための方法および装置
US20120314769A1 (en) * 2005-07-19 2012-12-13 Samsung Electronics Co., Ltd. Video encoding/decoding method and apparatus in temporal direct mode in hierarchical structure
JP2013021629A (ja) * 2011-07-14 2013-01-31 Sony Corp 画像処理装置及び画像処理方法
JP2013042225A (ja) * 2011-08-11 2013-02-28 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2014520413A (ja) * 2011-04-15 2014-08-21 エスケー プラネット カンパニー、リミテッド マルチトラックビデオを用いた高速スケーラブル・ビデオ・コーディング装置及び方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3788823B2 (ja) * 1995-10-27 2006-06-21 株式会社東芝 動画像符号化装置および動画像復号化装置
DE102004059993B4 (de) 2004-10-15 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium
JP2009512306A (ja) 2005-10-11 2009-03-19 ノキア コーポレイション スケーラブルビデオコーディングのためのデコードされたピクチャーの効率的なバッファマネージメント
JP5587552B2 (ja) * 2005-10-19 2014-09-10 トムソン ライセンシング スケーラブル映像符号化を用いた多視点映像符号化
EP1933563A1 (en) * 2006-12-14 2008-06-18 Thomson Licensing Method and apparatus for encoding and/or decoding bit depth scalable video data using adaptive enhancement layer residual prediction
US8711948B2 (en) * 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
JP5044518B2 (ja) * 2008-09-17 2012-10-10 株式会社東芝 画像処理装置及びコンピュータ端末
GB2492396A (en) * 2011-06-30 2013-01-02 Canon Kk Decoding a Scalable Video Bit-Stream
CN110035286B (zh) 2012-07-09 2021-11-12 Vid拓展公司 用于多层视频编码的编解码器架构
US9357211B2 (en) * 2012-12-28 2016-05-31 Qualcomm Incorporated Device and method for scalable and multiview/3D coding of video information
US20140254681A1 (en) * 2013-03-08 2014-09-11 Nokia Corporation Apparatus, a method and a computer program for video coding and decoding

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002315004A (ja) * 2001-04-09 2002-10-25 Ntt Docomo Inc 画像符号化方法及び装置、画像復号方法及び装置、並びに画像処理システム
JP2012054982A (ja) * 2002-07-15 2012-03-15 Thomson Licensing ビデオ復号化における参照ピクチャの適応重み付け
WO2006006793A1 (en) * 2004-07-15 2006-01-19 Samsung Electronics Co., Ltd. Video encoding and decoding methods and video encoder and decoder
US20120314769A1 (en) * 2005-07-19 2012-12-13 Samsung Electronics Co., Ltd. Video encoding/decoding method and apparatus in temporal direct mode in hierarchical structure
JP2009522972A (ja) * 2006-01-09 2009-06-11 ノキア コーポレイション スケーラブルなビデオ符号化におけるエラー耐性を有するモード決定
US20110261876A1 (en) * 2008-10-17 2011-10-27 Yih Han Tan Method for encoding a digital picture, encoder, and computer program element
JP2012517140A (ja) * 2009-02-03 2012-07-26 トムソン ライセンシング ビット深度スケーラビリティにおける平滑参照フレームを用いた動き補償のための方法および装置
JP2014520413A (ja) * 2011-04-15 2014-08-21 エスケー プラネット カンパニー、リミテッド マルチトラックビデオを用いた高速スケーラブル・ビデオ・コーディング装置及び方法
JP2013021629A (ja) * 2011-07-14 2013-01-31 Sony Corp 画像処理装置及び画像処理方法
JP2013042225A (ja) * 2011-08-11 2013-02-28 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HYOMIN CHOI ET AL.: "Scalable structures and inter-layer predictions for HEVC scalable extension", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH M, vol. JCTVC-F096, JPN6017037953, 22 July 2011 (2011-07-22) *
XIANG LI ET AL.: ""Non-TE3: Extension of Test 4.6.2.1 on Generalized Residual Prediction"", JCTVC-L0190, vol. JCTVC-L0190, JPN6016048543, 8 January 2013 (2013-01-08) *

Also Published As

Publication number Publication date
JP2018174566A (ja) 2018-11-08
EP2982117B1 (en) 2018-07-25
EP3410715A1 (en) 2018-12-05
US10708605B2 (en) 2020-07-07
JP6360154B2 (ja) 2018-07-18
KR20150140744A (ko) 2015-12-16
KR102118524B1 (ko) 2020-06-09
CN110855994B (zh) 2023-09-19
KR20180120788A (ko) 2018-11-06
CN105122805A (zh) 2015-12-02
US20160065976A1 (en) 2016-03-03
CN105122805B (zh) 2019-10-15
CN110855994A (zh) 2020-02-28
EP2982117A1 (en) 2016-02-10
KR101915156B1 (ko) 2018-11-06
WO2014165721A1 (en) 2014-10-09
JP6592145B2 (ja) 2019-10-16
TW201511526A (zh) 2015-03-16

Similar Documents

Publication Publication Date Title
JP6592145B2 (ja) 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント
JP6574223B2 (ja) 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP6480555B2 (ja) スケーラブルな高効率ビデオコーディング(hevc)のための参照ピクチャセット(rps)シグナリング
US10277909B2 (en) Single loop decoding based interlayer prediction
KR101840915B1 (ko) 스케일러블 비디오 코딩을 위한 모션 정보 시그널링
KR102136666B1 (ko) 스케일가능한 비디오 코딩을 위한 계층간 예측

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6360154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250