JP6397902B2 - スケーラブルビデオ符号化のためのレイヤ間予測 - Google Patents

スケーラブルビデオ符号化のためのレイヤ間予測 Download PDF

Info

Publication number
JP6397902B2
JP6397902B2 JP2016516968A JP2016516968A JP6397902B2 JP 6397902 B2 JP6397902 B2 JP 6397902B2 JP 2016516968 A JP2016516968 A JP 2016516968A JP 2016516968 A JP2016516968 A JP 2016516968A JP 6397902 B2 JP6397902 B2 JP 6397902B2
Authority
JP
Japan
Prior art keywords
image
reference image
ilr
eilr
pass filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016516968A
Other languages
English (en)
Other versions
JP2016538740A (ja
Inventor
ロード ソーステン
ロード ソーステン
シウ シアオユー
シウ シアオユー
ドン ジエ
ドン ジエ
イエ イエン
イエ イエン
ホー ユーウェン
ホー ユーウェン
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2016538740A publication Critical patent/JP2016538740A/ja
Application granted granted Critical
Publication of JP6397902B2 publication Critical patent/JP6397902B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Mobile Radio Communication Systems (AREA)

Description

関連出願の相互参照
本出願は、その開示が、これによってその全体が本明細書に組み込まれている、2013年9月24日に出願された米国特許仮出願第61/881,801号の利益を主張するものである。
ビデオ符号化システムは、用いられる記憶リソースおよび/またはこのような信号の送信帯域幅を低減するように、デジタルビデオ信号を圧縮するために用いられ得る。ブロックベース、ウエーブレットベース、および/またはオブジェクトベースのシステムなどの、様々なタイプのビデオ符号化システムの中でも、ブロックベースの複合ビデオ符号化システムが一般に用いられ、展開され得る。ブロックベースのビデオ符号化システムの例は、MPEG1/2/4パート2、H.264/MPEG−4パート10AVC、およびVC−1標準などの、国際ビデオ符号化標準を含むことができる。高効率ビデオ符号化(HEVC)標準も、ブロックベースの複合ビデオ符号化フレームワークに従い得る。
強化レイヤ画像のレイヤ間予測のための基準画像(reference picture)として、強化型(enhanced)レイヤ間基準(EILR:enhanced inter-layer reference)画像を用いて、レイヤ間予測の効率を向上するためのシステム、方法、および手段が開示される。レイヤ間基準(ILR)画像の輝度成分および/またはクロミナンス成分が強化され得る。高周波情報は、ハイパスフィルタによりレイヤ間動き補償(ILMC)画像を処理することによって取得され得る。低周波情報は、ローパスフィルタによりILR画像を処理することによって取得され得る。EILR画像は、高周波情報、低周波情報、および/またはILR画像の関数として生成され得る。
ビデオ符号化方法は、第1の基準画像および第2の基準画像を受信するステップを含むことができる。第1の基準画像は、ハイパスフィルタにより高周波情報を生成するように処理され得る。第2の基準画像は、ローパスフィルタにより低周波情報を生成するように処理され得る。高周波情報および低周波情報の線形結合の関数として、予測値が生成され得る。
1または複数の開示される実施形態が実施され得る、例示の通信システムのシステム図である。 図1Aに示される通信システム内で使用され得る、例示の無線送受信ユニット(WTRU)のシステム図である。 図1Aに示される通信システム内で使用され得る、例示の無線アクセスネットワークおよび例示のコアネットワークのシステム図である。 図1Aに示される通信システム内で使用され得る、他の例示の無線アクセスネットワークおよび他の例示のコアネットワークのシステム図である。 図1Aに示される通信システム内で使用され得る、他の例示の無線アクセスネットワークおよび他の例示のコアネットワークのシステム図である。 例示のビデオ符号化システムを示すブロック図である。 例示のビデオ復号システムを示すブロック図である。 例示のスケーラブルビデオ符号化システムを示すブロック図である。 例示の2レイヤスケーラブルビデオ復号システムのブロック図である。 例示のレイヤ間予測処理および管理サブシステムを示す図である。 もとの強化レイヤ画像とレイヤ間予測(ILP)画像の間の処理の例を示す図である。 もとの強化レイヤ画像および時間基準およびレイヤ間基準(ILR)画像の間の例示の歪みを示す図である。 もとの強化レイヤ画像および時間基準およびレイヤ間基準(ILR)画像の間の例示の歪みを示す図である。 もとの強化レイヤ画像および時間基準およびレイヤ間基準(ILR)画像の間の例示の歪みを示す図である。 ILR強化の例を示すブロック図である。 ILR強化の他の例を示すブロック図である。 ILR強化の他の例を示すブロック図である。 ILR強化の例を示すフロー図である。 例示のEILRマップを示す図である。 ILR強化の他の例を示すフロー図である。 ILR強化の例を示すブロック図である。
次に例示的実施形態の詳細な説明が、様々な図に関連して述べられる。この説明は可能な実装形態の詳細な例を示すが、詳細は例示的なものであり、本出願の範囲を限定するものでは全くないことが留意されるべきである。
図1Aは、1または複数の開示される実施形態が実施され得る、例示の通信システム100の図である。通信システム100は、複数の無線ユーザに、音声、データ、ビデオ、メッセージング、放送その他などのコンテンツをもたらす多元接続方式とすることができる。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共有を通して、このようなコンテンツにアクセスすることを可能にすることができる。例えば通信システム100は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、単一キャリアFDMA(SC−FDMA)、および同種のものなどの、1または複数のチャネルアクセス方法を使用することができる。
図1Aに示されるように通信システム100は、無線送受信ユニット(WTRU)102a、102b、102c、および/または102d(これらは一般に、またはまとめてWTRU102と呼ばれ得る)、無線アクセスネットワーク(RAN)103/104/105、コアネットワーク106/107/109、公衆交換電話ネットワーク(PSTN)108、インターネット110、および他のネットワーク112を含むことができるが、開示される実施形態は任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図することが理解されよう。WTRU102a、102b、102c、102dのそれぞれは、無線環境において動作および/または通信するように構成された任意のタイプのデバイスとすることができる。例としてWTRU102a、102b、102c、102dは、無線信号を送信および/または受信するように構成されることができ、ユーザ機器(UE)、移動局、固定またはモバイル加入者ユニット、ページャ、セルラ電話、携帯情報端末(PDA)、スマートフォン、ラップトップ、ノートブック、パーソナルコンピュータ、無線センサ、民生用電子機器、および同種のものを含むことができる。
通信システム100はまた、基地局114aおよび基地局114bを含むことができる。基地局114a、114bのそれぞれは、コアネットワーク106/107/109、インターネット110、および/またはネットワーク112などの、1または複数の通信ネットワークへのアクセスを容易にするように、WTRU102a、102b、102c、102dの少なくとも1つと無線でインターフェース接続するように構成された任意のタイプのデバイスとすることができる。例として基地局114a、114bは、基地トランシーバ局(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、サイトコントローラ、アクセスポイント(AP)、無線ルータ、および同種のものとすることができる。基地局114a、114bはそれぞれ単一の要素として示されるが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含み得ることが理解されるであろう。
基地局114aはRAN103/104/105の一部とすることができ、これはまた他の基地局、および/または基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードその他などのネットワーク要素(図示せず)を含むことができる。基地局114aおよび/または基地局114bは、セル(図示せず)と呼ばれ得る特定の地理的領域内で無線信号を送信および/または受信するように構成され得る。セルはさらにセルセクタに分割され得る。例えば基地局114aに関連付けられたセルは、3つのセクタに分割され得る。したがって一実施形態では基地局114aは、3つのトランシーバ、すなわちセルの各セクタに対して1つを含むことができる。他の実施形態では基地局114aは、多入力多出力(MIMO)技術を使用することができ、したがってセルの各セクタに対して複数のトランシーバを利用することができる。
基地局114a、114bは、任意の適切な無線通信リンク(例えば無線周波数(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光など)とすることができるエアインターフェース115/116/117を通して、WTRU102a、102b、102c、102dの1または複数と通信することができる。エアインターフェース115/116/117は、任意の適切な無線アクセス技術(RAT)を用いて確立され得る。
より具体的には、上記のように通信システム100は、多元接続方式とすることができ、CDMA、TDMA、FDMA、OFDMA、SC−FDMA、および同種のものなどの1または複数のチャネルアクセス方式を使用することができる。例えばRAN103/104/105内の基地局114a、およびWTRU102a、102b、102cは、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実施することができ、これらは広帯域CDMA(WCDMA)を用いてエアインターフェース115/116/117を確立することができる。WCDMAは、高速パケットアクセス(HSPA)、および/またはEvolved HSPA(HSPA+)などの通信プロトコルを含むことができる。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)、および/または高速アップリンクパケットアクセス(HSUPA)を含むことができる。
他の実施形態では、基地局114aおよびWTRU102a、102b、102cは、Evolved UMTS地上無線アクセス(E−UTRA)などの無線技術を実施することができ、これはロングタームエボリューション(LTE)および/またはLTEアドバンスト(LTE−A)を用いて、エアインターフェース115/116/117を確立することができる。
他の実施形態では、基地局114aおよびWTRU102a、102b、102cは、IEEE802.16(すなわちマイクロ波アクセス用世界規模相互運用性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動体通信用グローバルシステム(GSM)、GSM進化型高速データレート(EDGE)、GSM EDGE(GERAN)、および同種のものなどの無線技術を実施することができる。
図1Aの基地局114bは、例えば無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントとすることができ、事業所、ホーム、乗り物、キャンパス、および同種のものなどの、局所的エリアにおける無線接続性を容易にするための任意の適切なRATを利用することができる。一実施形態では、基地局114bおよびWTRU102c、102dは、無線ローカルエリアネットワーク(WLAN)を確立するために、IEEE802.11などの無線技術を実施することができる。他の実施形態では、基地局114bおよびWTRU102c、102dは、無線パーソナルエリアネットワーク(WPAN)を確立するために、IEEE802.15などの無線技術を実施することができる。他の実施形態では、基地局114bおよびWTRU102c、102dは、ピコセルまたはフェムトセルを確立するために、セルラベースのRAT(例えばWCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用することができる。図1Aに示されるように基地局114bは、インターネット110への直接接続を有することができる。したがって基地局114bは、コアネットワーク106/107/109を通じてインターネット110にアクセスしなくてもよい。
RAN103/104/105はコアネットワーク106/107/109と通信することができ、これは音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスを、WTRU102a、102b、102c、102dの1または複数にもたらすように構成された任意のタイプのネットワークとすることができる。例えばコアネットワーク106/107/109は、呼制御、料金請求サービス、モバイル位置ベースのサービス、プリペイドコール、インターネット接続性、ビデオ配信などをもたらすことができ、および/またはユーザ認証などの高レベルセキュリティ機能を行うことができる。図1Aに示されないが、RAN103/104/105および/またはコアネットワーク106/107/109は、RAN103/104/105と同じRATまたは異なるRATを使用する他のRANと、直接または間接に通信できることが理解されるであろう。例えば、E−UTRA無線技術を利用し得るRAN103/104/105に接続されることに加えて、コアネットワーク106/107/109はまた、GSM無線技術を使用する別のRAN(図示せず)と通信することができる。
コアネットワーク106/107/109はまた、PSTN108、インターネット110、および/または他のネットワーク112にアクセスするように、WTRU102a、102b、102c、102dのためのゲートウェイとして働くことができる。PSTN108は、従来型電話サービス(plain old telephone service)(POTS)をもたらす回線交換電話ネットワークを含むことができる。インターネット110は、伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびTCP/IPインターネットプロトコル群におけるインターネットプロトコル(IP)などの、共通通信プロトコルを用いる相互接続されたコンピュータネットワークおよびデバイスの、地球規模のシステムを含むことができる。ネットワーク112は、他のサービスプロバイダによって所有および/または運用される有線もしくは無線通信ネットワークを含むことができる。例えばネットワーク112は、RAN103/104/105と同じRAT、または異なるRATを使用することができる1または複数のRANに接続された、別のコアネットワークを含むことができる。
通信システム100内のWTRU102a、102b、102c、102dのいくつかまたはすべては、マルチモード能力を含むことができ、すなわちWTRU102a、102b、102c、102dは、異なる無線リンクを通して異なる無線ネットワークと通信するための複数のトランシーバを含むことができる。例えば図1Aに示されるWTRU102cは、セルラベースの無線技術を使用することができる基地局114a、およびIEEE802無線技術を使用することができる基地局114bと通信するように構成され得る。
図1Bは、例示のWTRU102のシステム図である。図1Bに示されるようにWTRU102は、プロセッサ118、トランシーバ120、送受信要素122、スピーカ/マイク124、キーパッド126、ディスプレイ/タッチパッド128、非リムーバブルメモリ130、リムーバブルメモリ132、電源134、全地球測位システム(GPS)チップセット136、および他の周辺装置138を含むことができる。WTRU102は、実施形態と一貫性を保ちながら、上記の要素の任意のサブコンビネーションを含み得ることが理解されるであろう。また実施形態は、基地局114aおよび114b、および/または非限定的に中でもトランシーバ局(BTS)、ノードB、サイトコントローラ、アクセスポイント(AP)、ホームノードB、進化型ホームノードB(eノードB)、ホーム進化型ノードB(HeNBまたはHeノードB)、ホーム進化型ノードBゲートウェイ、およびプロキシノードなど、基地局114aおよび114bが表すことができるノードは、図1Bに示され本明細書で述べられる要素のいくつかまたはすべてを含み得ることを企図する。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来のプロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアに関連した1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他のタイプの集積回路(IC)、状態機械、および同種のものとすることができる。プロセッサ118は、信号符号化、データ処理、電源制御、入出力処理、および/またはWTRU102が無線環境において動作することを可能にする任意の他の機能を行うことができる。プロセッサ118はトランシーバ120に結合されることができ、これは送受信要素122に結合され得る。図1Bはプロセッサ118およびトランシーバ120を別々の構成要素として示すが、プロセッサ118およびトランシーバ120は、電子回路パッケージまたはチップ内に一緒に統合され得ることが理解されるであろう。
送受信要素122は、エアインターフェース115/116/117を通して、基地局(例えば基地局114a)に信号を送信し、またはそれから信号を受信するように構成され得る。例えば一実施形態では送受信要素122は、RF信号を送信および/または受信するように構成されたアンテナとすることができる。他の実施形態では送受信要素122は、例えばIR、UV、または可視光信号を送信および/または受信するように構成された、放射器/検出器とすることができる。他の実施形態では送受信要素122は、RFおよび光信号の両方を送信および受信するように構成され得る。送受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成され得ることが理解されるであろう。
さらに図1Bでは送受信要素122は単一の要素として示されるが、WTRU102は、任意の数の送受信要素122を含むことができる。より具体的にはWTRU102は、MIMO技術を使用することができる。したがって一実施形態ではWTRU102は、エアインターフェース115/116/117を通して無線信号を送信および受信するための、2つ以上の送受信要素122(例えば複数のアンテナ)を含むことができる。
トランシーバ120は、送受信要素122によって送信されることになる信号を変調し、送受信要素122によって受信された信号を復調するように構成され得る。上記のようにWTRU102は、マルチモード能力を有することができる。したがってトランシーバ120は、WTRU102が例えばUTRAおよびIEEE802.11などの複数のRATを通じて通信することを可能にするために複数のトランシーバを含むことができる。
WTRU102のプロセッサ118は、スピーカ/マイク124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば液晶表示(LCD)ディスプレイユニット、または有機発光ダイオード(OLED)ディスプレイユニット)に結合されることができ、それらからユーザ入力データを受信することができる。プロセッサ118はまた、スピーカ/マイク124、キーパッド126、および/またはディスプレイ/タッチパッド128にユーザデータを出力することができる。さらにプロセッサ118は、非リムーバブルメモリ130および/またはリムーバブルメモリ132などの任意のタイプの適切なメモリからの情報にアクセスし、それにデータを記憶することができる。非リムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスク、または任意の他のタイプのメモリ記憶装置を含むことができる。リムーバブルメモリ132は、加入者識別モジュール(SIM)カード、メモリスティック、セキュアデジタル(SD)メモリカード、および同種のものを含むことができる。他の実施形態ではプロセッサ118は、サーバまたはホームコンピュータ(図示せず)上など、物理的にWTRU102上にないメモリからの情報にアクセスし、それにデータを記憶することができる。
プロセッサ118は、電源134から電力を受信することができ、WTRU102内の他の構成要素に対して電力を分配および/または制御するように構成され得る。電源134は、WTRU102に電力供給するための任意の適切なデバイスとすることができる。例えば電源134は、1または複数の乾電池(例えばニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Liイオン)など)、太陽電池、燃料電池、および同種のものを含むことができる。
プロセッサ118はまた、GPSチップセット136に結合されることができ、これはWTRU102の現在の位置に関する位置情報(例えば経度および緯度)をもたらすように構成され得る。GPSチップセット136からの情報に加えてまたはその代わりに、WTRU102は、エアインターフェース115/116/117を通して基地局(例えば基地局114a、114b)から位置情報を受信することができ、および/または2つ以上の近くの基地局から受信される信号のタイミングに基づいてその位置を決定することができる。WTRU102は、実施形態と一貫性を保ちながら、任意の適切な位置決定実装形態によって位置情報を取得できることが理解されるであろう。
プロセッサ118はさらに他の周辺装置138に結合されることができ、これはさらなる特徴、機能、および/または有線もしくは無線接続性をもたらす、1または複数のソフトウェアおよび/またはハードウェアモジュールを含むことができる。例えば周辺装置138は、加速度計、電子コンパス、衛星トランシーバ、デジタルカメラ(写真またはビデオ用)、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビ送受信機、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザ、および同種のものを含むことができる。
図1Cは、実施形態によるRAN103およびコアネットワーク106のシステム図である。上記のようにRAN103は、UTRA無線技術を使用して、エアインターフェース115を通してWTRU102a、102b、102cと通信することができる。RAN103はまた、コアネットワーク106と通信することができる。図1Cに示されるようにRAN103は、ノードB140a、140b、140cを含むことができ、これらはそれぞれ、エアインターフェース115を通してWTRU102a、102b、102cと通信するための1または複数のトランシーバを含むことができる。ノードB140a、140b、140cはそれぞれ、RAN103内の特定のセル(図示せず)に関連付けられ得る。RAN103はまた、RNC142a、142bを含むことができる。RAN103は、実施形態と一貫性を保ちながら、任意の数のノードBおよびRNCを含み得ることが理解されるであろう。
図1Cに示されるようにノードB140a、140bは、RNC142aと通信することができる。さらにノードB140cは、RNC142bと通信することができる。ノードB140a、140b、140cは、Iubインターフェースを通じて、それぞれRNC142a、142bと通信することができる。RNC142a、142bは、Iurインターフェースを通じて互いに通信することができる。RNC142a、142bのそれぞれは、それが接続されるそれぞれのノードB140a、140b、140cを制御するように構成され得る。さらにRNC142a、142bのそれぞれは、外側ループ電源制御、負荷制御、アドミッション制御、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシティ、セキュリティ機能、データ暗号化、および同種のものなどの他の機能を、実行またはサポートするように構成され得る。
図1Cに示されるコアネットワーク106は、メディアゲートウェイ(MGW)144、モバイル交換局(MSC)146、サービングGPRSサポートノード(SGSN)148、および/またはゲートウェイGPRSサポートノード(GGSN)150を含むことができる。上記の要素のそれぞれはコアネットワーク106の一部として示されるが、これらの要素のいずれの1つも、コアネットワークオペレータ以外のエンティティによって所有および/または運用され得ることが理解されるであろう。
RAN103内のRNC142aは、IuCSインターフェースを通じてコアネットワーク106内のMSC146に接続され得る。MSC146はMGW144に接続され得る。MSC146およびMGW144は、WTRU102a、102b、102cと従来型の陸線通信デバイスとの間の通信を容易にするために、PSTN108などの回線交換ネットワークへのアクセスをWTRU102a、102b、102cにもたらすことができる。
RAN103内のRNC142aはまた、IuPSインターフェースを通じてコアネットワーク106内のSGSN148に接続され得る。SGSN148は、GGSN150に接続され得る。SGSN148およびGGSN150は、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にするために、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、102cにもたらすことができる。
上記のようにコアネットワーク106はまた、ネットワーク112に接続されることができ、これは他のサービスプロバイダによって所有および/または運用される他の有線もしくは無線ネットワークを含むことができる。
図1Dは、実施形態によるRAN104およびコアネットワーク107のシステム図である。上記のようにRAN104は、E−UTRA無線技術を使用して、エアインターフェース116を通してWTRU102a、102b、102cと通信することができる。RAN104はまた、コアネットワーク107と通信することができる。
RAN104はeノードB160a、160b、160cを含むことができるが、RAN104は実施形態と一貫性を保ちながら、任意の数のeノードBを含み得ることが理解されるであろう。eノードB160a、160b、160cはそれぞれ、エアインターフェース116を通してWTRU102a、102b、102cと通信するための1または複数のトランシーバを含むことができる。一実施形態ではeノードB160a、160b、160cは、MIMO技術を実施することができる。したがって例えばeノードB160aは、複数のアンテナを用いてWTRU102aに無線信号を送信し、それから無線信号を受信することができる。
eノードB160a、160b、160cのそれぞれは、特定のセル(図示せず)に関連付けられることができ、無線リソース管理決定、ハンドオーバ決定、アップリンクおよび/またはダウンリンクにおけるユーザのスケジューリングなどを取り扱うように構成され得る。図1Dに示されるように、eノードB160a、160b、160cは、X2インターフェースを通して互いに通信することができる。
図1Dに示されるコアネットワーク107は、モビリティ管理ゲートウェイ(MME)162、サービングゲートウェイ164、およびパケットデータネットワーク(PDN)ゲートウェイ166を含むことができる。上記の要素のそれぞれはコアネットワーク107の一部として示されるが、これらの要素のいずれの1つも、コアネットワークオペレータ以外のエンティティによって所有および/または運用され得ることが理解されるであろう。
MME162は、S1インターフェースを通じてRAN104内のeノードB160a、160b、160cのそれぞれに接続されることができ、制御ノードとして働くことができる。例えばMME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラ活動化/非活動化、WTRU102a、102b、102cの初めのアタッチ時に特定のサービングゲートウェイを選択することなどに対して責任をもち得る。MME162はまた、RAN104と、GSMまたはWCDMAなどの他の無線技術を使用する他のRAN(図示せず)との間の切り換えのための、制御プレーン機能をもたらすことができる。
サービングゲートウェイ164は、S1インターフェースを通じてRAN104内のeノードB160a、160b、160cのそれぞれに接続され得る。サービングゲートウェイ164は一般に、WTRU102a、102b、102cにおよびそれらから、ユーザデータパケットを経路指定および転送することができる。サービングゲートウェイ164はまた、eノードB間ハンドオーバ時にユーザプレーンをアンカリングすること、WTRU102a、102b、102cのためのダウンリンクデータが利用可能であるときにページングをトリガすること、WTRU102a、102b、102cのコンテキストを管理および記憶すること、および同種のものなどの他の機能を行うことができる。
サービングゲートウェイ164はまた、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にするために、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、102cにもたらすことができる、PDNゲートウェイ166に接続され得る。
コアネットワーク107は他のネットワークとの通信を容易にすることができる。例えばコアネットワーク107は、WTRU102a、102b、102cと従来型の陸線通信デバイスとの間の通信を容易にするために、PSTN108などの回線交換ネットワークへのアクセスをWTRU102a、102b、102cにもたらすことができる。例えばコアネットワーク107は、コアネットワーク107とPSTN108との間のインターフェースとして働くIPゲートウェイ(例えばIPマルチメディアサブシステム(IMS)サーバ)を含むことができ、またはそれと通信することができる。さらにコアネットワーク107は、WTRU102a、102b、102cにネットワーク112へのアクセスをもたらすことができ、これは他のサービスプロバイダによって所有および/または運用される他の有線もしくは無線ネットワークを含むことができる。
図1Eは、実施形態によるRAN105およびコアネットワーク109のシステム図である。RAN105は、IEEE802.16無線技術を使用してエアインターフェース117を通してWTRU102a、102b、102cと通信する、アクセスサービスネットワーク(ASN)とすることができる。以下でさらに論じられるように、WTRU102a、102b、102c、RAN105、およびコアネットワーク109の異なる機能エンティティ間の通信リンクは、基準点として定義され得る。
図1Eに示されるようにRAN105は、基地局180a、180b、180c、およびASNゲートウェイ182を含むことができるが、RAN105は実施形態と一貫性を保ちながら、任意の数の基地局およびASNゲートウェイを含み得ることが理解されるであろう。基地局180a、180b、180cはそれぞれRAN105内の特定のセル(図示せず)に関連付けられることができ、それぞれエアインターフェース117を通してWTRU102a、102b、102cと通信するための1または複数のトランシーバを含むことができる。一実施形態では基地局180a、180b、180cは、MIMO技術を実施することができる。したがって例えば基地局180aは、複数のアンテナを用いてWTRU102aに無線信号を送信し、それから無線信号を受信することができる。基地局180a、180b、180cはまた、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、サービス品質(QoS)ポリシー実施、および同種のものなどのモビリティ管理機能をもたらすことができる。ASNゲートウェイ182は、トラフィック集約ポイントとして働くことができ、ページング、加入者プロファイルのキャッシング、コアネットワーク109への経路指定、および同種のものに対して責任をもち得る。
WTRU102a、102b、102cとRAN105との間のエアインターフェース117は、IEEE802.16仕様を実施するR1基準点として定義され得る。さらにWTRU102a、102b、102cのそれぞれは、コアネットワーク109との論理インターフェース(図示せず)を確立することができる。WTRU102a、102b、102cとコアネットワーク109との間の論理インターフェースは、R2基準点として定義されることができ、これは認証、承認、IPホスト構成管理、および/またはモビリティ管理のために用いられ得る。
基地局180a、180b、180cのそれぞれの間の通信リンクは、WTRUハンドオーバおよび基地局間のデータの転送を容易にするためのプロトコルを含むR8基準点として定義され得る。基地局180a、180b、180cとASNゲートウェイ182との間の通信リンクは、R6基準点として定義され得る。R6基準点は、WTRU102a、102b、102cのそれぞれに関連付けられたモビリティイベントに基づくモビリティ管理を容易にするためのプロトコルを含むことができる。
図1Eに示されるようにRAN105は、コアネットワーク109に接続され得る。RAN105とコアネットワーク109の間の通信リンクは、例えばデータ転送およびモビリティ管理能力を容易にするためのプロトコルを含むR3基準点として定義され得る。コアネットワーク109は、モバイルIPホームエージェント(MIP−HA)184、認証、承認、アカウンティング(AAA)サーバ186、およびゲートウェイ188を含むことができる。上記の要素のそれぞれはコアネットワーク109の一部として示されるが、これらの要素のいずれの1つも、コアネットワークオペレータ以外のエンティティによって所有および/または運用され得ることが理解されるであろう。
MIP−HAは、IPアドレス管理に対して責任をもつことができ、WTRU102a、102b、102cが、異なるASNおよび/または異なるコアネットワークの間でローミングすることを可能にすることができる。MIP−HA184は、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にするために、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、102cにもたらすことができる。AAAサーバ186は、ユーザ認証に対して、およびユーザサービスをサポートすることに対して責任をもち得る。ゲートウェイ188は、他のネットワークとのインターワーキングを容易にする。例えばゲートウェイ188は、WTRU102a、102b、102cと従来型の陸線通信デバイスとの間の通信を容易にするために、PSTN108などの回線交換ネットワークへのアクセスをWTRU102a、102b、102cにもたらすことができる。さらにゲートウェイ188は、WTRU102a、102b、102cにネットワーク112へのアクセスをもたらすことができ、これは他のサービスプロバイダによって所有および/または運用される他の有線もしくは無線ネットワークを含むことができる。
図1Eには示されないが、RAN105は他のASNに接続されることができ、コアネットワーク109は他のコアネットワークに接続され得ることが理解されるであろう。RAN105と他のASNの間の通信リンクは、R4基準点として定義されることができ、これはRAN105と他のASNとの間のWTRU102a、102b、102cのモビリティを調整するためのプロトコルを含むことができる。コアネットワーク109と他のコアネットワークとの間の通信リンクは、R5基準として定義されることができ、これはホームコアネットワークと訪問先のコアネットワークとの間のインターワーキングを容易にするためのプロトコルを含むことができる。
開示される主題によれば、レイヤ間予測の効率は、強化レイヤ画像のレイヤ間予測のための基準画像として、強化型レイヤ間基準(EILR)画像を用いることによって向上され得る。レイヤ間基準(ILR)画像の輝度成分および/またはクロミナンス成分が強化され得る。高周波情報は、ハイパスフィルタによりレイヤ間動き補償(ILMC)画像を処理することによって取得され得る。低周波情報は、ローパスフィルタによりILR画像を処理することによって取得され得る。EILR画像は、高周波情報、低周波情報、および/またはILR画像の関数として生成され得る。
図2は、例示のブロックベースの複合ビデオ符号化システム200を示す。入力ビデオ信号202は、ブロックごとに処理され得る。ビデオブロックユニットは、16×16画素からなり得る。このようなブロックユニットは、一般にマクロブロックまたはMBと呼ばれ得る。HEVCでは、例えば1080p以上の解像度を有する高解像度ビデオ信号を効率的に圧縮するために、符号化ユニットまたはCUとして知られている拡張されたブロックサイズが用いられ得る。CUは正方形とすることができ、柔軟性のあるサイズを有することができる。最大サイズは、シーケンスをベースとして設定することができ、例えば64×64画素とすることができる。CUはさらに、個別の予測方法がそれに適用される予測ユニットまたはPUに分割され得る。入力ビデオブロック(MBまたはCU)に対しては、空間予測および/または時間予測が、それぞれ260および262において行われ得る。空間予測(例えば内部予測)は、同じビデオ画像/スライス内のすでに符号化された隣接するブロックからの画素を用いて、現在のビデオブロックを予測することができる。空間予測は、ビデオ信号に固有の空間冗長度を低減することができる。時間予測(例えば相互予測、または動き補償された予測とも呼ばれる)は、すでに符号化されたビデオ画像からの画素を用いて、現在のビデオブロックを予測することができる。時間予測は、ビデオ信号に固有の時間冗長度を低減することができる。所与のビデオブロックに対する時間予測信号は、1または複数の動きベクトル、および/または例えば複数の基準画像が用いられる場合は1または複数の基準画像インデックスを備えることができる。これらの基準画像インデックスは、基準画像記憶装置264内のどの基準画像から、時間予測信号が到来し得るかを識別するために含められ得る。空間および/または時間予測の後に、エンコーダ内のモード決定ブロック280は、予測モードを選ぶことができ、例えば最良の予測モードを、例えばレート歪み最適化方法に基づいて選ぶことができる。216において、予測ブロックは現在のビデオブロックから減算され得る。予測残差は、204で変換することができ、および/または206で量子化され得る。量子化された残差係数は、210で逆量子化され、および/または212で逆変換されて、再構成された残差を形成することができ、これは226で予測ブロックに戻すように加算されて、再構成されたビデオブロックを形成することができる。266においてデブロッキングフィルタおよび/または適応ループフィルタなどのさらなるループ内フィルタリングを、再構成されたビデオブロックに適用することができ、その後にそれは基準画像記憶装置264内に置かれ、将来のビデオブロックを符号化するために用いることができる。出力ビデオビットストリーム220を形成するために、符号化モード(インター(inter)またはイントラ(intra))、予測モード情報、動き情報、および/または量子化された残差係数は、エントロピー符号化ユニット208に送られて、さらに圧縮およびパッキングされてビットストリームを形成することができる。
図3は、図2のブロックベースの複合ビデオ符号化システム200に対応し得る、ブロックベースのビデオデコーダ300の全体的なブロック図を示す。ビデオビットストリーム302は、エントロピー復号ユニット308においてアンパッキングされ、エントロピー復号され得る。符号化モードおよび予測情報は、空間予測ユニット360(イントラ符号化される場合)、または時間予測ユニット362(インター符号化される場合)に送られて、予測ブロックを形成することができる。残差変換係数は、逆量子化ユニット310および/または逆変換ユニット312に送られて、残差ブロックを再構成することができる。予測ブロックおよび残差ブロックは、326で一緒に加算され得る。再構成されたブロックは、さらにループ内フィルタリングを通過することができ、その後に基準画像記憶装置364に記憶され得る。基準画像記憶装置364内の再構成されたビデオは、送出されてディスプレイデバイスを駆動することができ、ならびに将来のビデオブロックを予測するために用いられ得る。
デジタルビデオサービスは、衛星、ケーブル、および/または地上放送チャネルを指すことができる。しかしモバイルデバイスにおいてインターネットが、特に解像度および計算能力におけるスマートフォンおよびタブレットの最近の発展とともに、より確立されるのに従って、ビデオチャット、モバイルビデオ録画および共有、ならびにビデオストリーミングなどのますます多くのビデオアプリケーションが、異種混合の環境においてビデオ送信を用い得る。様々な民生デバイス(例えばPC、スマートフォン、タブレット、テレビ)を考慮する3画面およびN画面として知られているシナリオは、計算能力、メモリ/記憶装置サイズ、ディスプレイ解像度、ディスプレイフレームレートなどの点からの多種多様な能力を有するデバイスにおけるビデオ消費に対応することができる。加えてネットワークおよび伝送チャネルも、パケット損失レート、利用可能チャネル帯域幅、バーストエラーレートなどの点から多種多様な特性を有し得る。またビデオデータは、有線ネットワークおよび無線ネットワークの組み合わせを通して送信することができ、基礎をなす送信チャネル特性をさらに複雑にする。このようなシナリオにおいてスケーラブルビデオ符号化は、異種混合ネットワークを通して異なる能力を有するデバイス上で実行するビデオアプリケーションに対する、エクスペリエンスの品質を改善するための魅力的なソリューションをもたらすことができる。スケーラブルビデオ符号化は、一旦最高の表示(時間解像度、空間解像度、品質など)において信号を符号化するものである。特定のクライアントデバイス上で実行し得るいくつかのアプリケーションによって使用される特定のレートおよび表示に応じて、ビデオストリームのサブセットからの復号が可能にされ得る。スケーラブルビデオ符号化は、非スケーラブルのソリューションと比べて帯域幅および記憶装置を節約することができる。国際ビデオ標準のMPEG−2ビデオ、H.263、MPEG4 VisualおよびH.264は、スケーラビリティのいくつかのモードをサポートするツールおよび/またはプロファイルを有する。HEVCは、SHVCとして知られているスケーラブルな拡張を含むことができる。
図4は、例示のスケーラブルビデオ符号化システム400を示す。2レイヤスケーラブル符号化システムは、基本レイヤおよび強化レイヤを備えることができる。2つのレイヤの間で空間解像度は異なる場合があり、例えば空間スケーラビリティが適用され得る。基本レイヤエンコーダ402、例えばHEVCエンコーダは、例えば図2に示される例により、基本レイヤビデオ入力404をブロックごとに符号化することができ、基本レイヤビットストリーム406を生成することができる。強化レイヤエンコーダ408は、例えば図2に示される例により、強化レイヤビデオ入力410をブロックごとに符号化することができ、強化レイヤビットストリーム412を生成することができる。スケーラブルシステムの符号化効率を改善するために、強化レイヤビデオ入力410が符号化されるときは、その予測精度を改善するために基本レイヤ再構成ビデオからの信号相関が用いられ得る。例えば基本レイヤ再構成ビデオは処理することができ、処理された基本レイヤ画像の少なくともいくつかは強化レイヤDPB414に挿入することができ、強化レイヤビデオ入力を予測するために用いられ得る。図4に示される例では、基本レイヤビデオ入力404および強化レイヤビデオ入力410は本質的に、異なる空間解像度で表された同じビデオソースとなり得る。それらは、ダウンサンプリングプロセスを通じて互いに対応し得る。レイヤ間処理および管理サブシステム416は、レイヤ間予測処理の一部として、基本レイヤ再構成の空間解像度を、強化レイヤビデオのそれと整列させるために用いられるアップサンプリング動作を行うことができる。それぞれ基本レイヤエンコーダ402および強化レイヤエンコーダ408によって生成される、基本レイヤビットストリーム406および強化レイヤビットストリーム412に加えて、いくつかのレイヤ間予測情報もILP処理および管理サブシステム416によって生成され得る。例えばILP情報は、適用されるレイヤ間処理のタイプ、処理に用いられるパラメータ(例えば用いられるアップサンプリングフィルタ)、1または複数の処理された基本レイヤ画像のどれが強化レイヤDPBに挿入されるべきか、および/または同種のものを備えることができる。基本および強化レイヤビットストリーム、ならびにILP情報は、スケーラブルビットストリーム420を形成するように、例えばマルチプレクサ418によって一緒に多重化され得る。
図5は、図4のスケーラブルエンコーダ400に対応し得る、2レイヤスケーラブルビデオデコーダ500を示す。デコーダ500は、エンコーダ400とは逆の順序で、対応する動作を行うことができる。スケーラブルビットストリーム502は、最初に例えばデマルチプレクサ504によって、基本レイヤビットストリーム506、強化レイヤビットストリーム508、およびILP情報510に逆多重化される。基本レイヤデコーダ512は、基本レイヤビットストリーム506を復号することができ、基本レイヤ再構成514を生成することができる。ILP処理および管理サブシステム516は、ILP情報510を受信することができ、受信されたILP情報510に従って基本レイヤ再構成514を処理することができる。ILP処理および管理サブシステム516は、処理された基本レイヤ画像の1または複数を、やはり受信されたILP情報510に従って、強化レイヤDPB518に選択的に挿入することができる。強化レイヤデコーダ520は、時間基準画像、およびレイヤ間基準(ILR)画像、例えば処理された基本レイヤ画像の組み合わせにより、強化レイヤビットストリーム508を復号して、強化レイヤビデオ522を再構成することができる。「レイヤ間基準画像」および「処理された基本レイヤ画像」という用語は、本明細書では同義的に用いられ得る。
図6は、例示のILP処理および管理サブシステム600を示す。ILP処理および管理サブシステム600は、基本レイヤ(BL)テクスチャサンプルおよび/または動きフィールドを処理するための構成要素を備えることができる。例えばレイヤ間テクスチャ予測部602は、いくつかの段階を備えることができる。604においてBL再構成画像は、それがアップサンプリングされる前に強化され得る。606でBL解像度が、空間スケーラビリティにおいて強化レイヤ(EL)解像度より低いときは、アップサンプリングが行われ得る。アップサンプリングされた出力は、ELと同じ解像度を有することができる。アップサンプリングされた画像がEL DPB610内に置かれる前に、ILR画像の品質をさらに改善するように608において別の強化が行われ得る。1または複数の段階は、省かれ得る。例えばSNRスケーラビリティにおいて、BL画像がEL画像と同じ解像度であるが低い品質を有する場合は、3つの段階の1または複数をスキップすることができ、例えばBL再構成画像は、レイヤ間予測のためにEL DPBに直接挿入され得る。例えば空間スケーラビリティにおいて、アップサンプリングは606で行うことができ、一方、アップサンプリングされたBL再構成画像がEL画像と同じ解像度をもつようにするために、604および608における強化は省かれ得る。604および608における強化は、ILR画像の品質を改善するために用いることができ、したがってEL符号化においてより高い効率を達成する。
ILR画像におけるサンプルを生成するために用いられ得るレイヤ間テクスチャ予測部602に加えて、基本レイヤおよび強化レイヤにおける動き情報の相関を利用することによって、ILR画像の動きフィールド(例えば動きベクトルおよび基準インデックスを含む)を生成するために、動きフィールド処理部612が用いられ得る。動きフィールドマッピング(MFM)614は、動きフィールドを生成するために用いられ得る。これら2つの部分の出力としてのレイヤ間画像は、強化レイヤにおける時間基準画像に加えて追加の基準画像として機能することができ、これはまた2次元サンプルアレイおよび動きフィールドを備えることができ、したがって強化レイヤ符号化における効率を改善する。
スケーラブルシステムにおいて、画像レベルILP、例えば画像レベルILPのみを行うことは、実装の複雑さを低減することができる。ブロックレベルでの基本レイヤおよび強化レイヤエンコーダおよびデコーダロジックは、変更なしに再使用され得る。処理された基本レイヤ画像の1または複数の、強化レイヤDPBへの挿入を必要とする高レベル(例えば画像/スライスレベル)構成が必要とされ得る。画像レベルレイヤ間予測に加えてブロックレベルレイヤ間予測を容易にするように、スケーラブルシステムにおいてブロックレベル変更が可能にされ得る。
ELエンコーダは、EL符号化のためにEL DPB内の基準画像を選択することができる。例えばELエンコーダは、レイヤ間予測処理および管理サブシステムの出力とすることができるILR画像、および/または前に符号化されたEL画像とすることができる時間基準画像を選択することができる。ILR画像および時間基準画像は、異なる特性を有し得る。
図6に示されるようにILR画像は、プロセスを適用することによって生成され得る。レイヤ間テクスチャ予測は、BLテクスチャのアップサンプリング(例えば空間率>1の場合)、またはBLテクスチャのコピー(例えば空間率=1の場合)を必要とする。動きフィールドマッピングは、例えばBLブロック予測モード、1または複数の動きベクトル、および/または1または複数の基準画像インデックスを含み得る圧縮されたBL動きフィールドを、BLおよびELビデオの間の相対スケーリング率に従ってスケーリングして、ILR画像における16×16ブロックに対する動き情報を生成することができる。これらのプロセスを適用した後に、ILR画像はEL DPBに追加され得る。
図6に示されるようにILR画像は、BL DPB616から取り込まれた再構成されたBL画像に基づいて生成され得る。しかしILR画像の品質は、強化の効率的なレイヤ間予測のためには十分に良好ではない場合がある。例えばBL画像は、より粗い量子化、例えばより高い量子化パラメータ(QP)値によって符号化され得る。より粗い量子化が適用されるときは、BL再構成テクスチャは、ブロック化アーチファクト、リンギングアーチファクト、色アーチファクトその他などの、望ましくない符号化アーチファクトを含み得る。これは、レイヤ間テクスチャ予測の有効性を減少し得る。空間スケーラビリティの場合、BL画像はEL画像より小さな空間解像度を有する場合があり、例えば図4のダウンサンプリングプロセスが適用され得る。エイリアシングを低減するために、ダウンサンプリングフィルタはビデオ信号内の高周波情報を低減または除去することができる。結果としてILR画像内のテクスチャ情報は、一定の高周波情報を欠いている場合があり、および/またはELビデオを符号化するための有効な予測情報をもたらすことができない場合がある。
図7は、もとのEL画像700と、その対応するILR画像702の間の処理の例を示す。704においてダウンサンプリングが適用されて、もとのBL画像706を生成することができる。ダウンサンプリングは、例えばSNRスケーラビリティの場合は省かれ得る。エンコーダ708は、BL画像を符号化して、符号化されたBL画像710を生成することができる。レイヤ間予測処理および管理サブシステム712は、ILR画像702を生成することができる。
ILR画像における失われた高周波情報を示すために、図8Bおよび8Cは、図8AでのもとのEL画像800の、図8BでのEL時間基準画像802からの、および図8CでのILR画像804からの差の例を示す。オブジェクトの縁部、例えば高い周波数において、ILR画像804ともとのEL画像800の間に大きな差が存在し得る。
図8Cの差分画像と比較して、図8Bの時間基準画像802は、このような逸失された高周波情報を示し得ない。時間基準画像802からの高周波情報は、ILR画像の品質を強化するために用いられ得る。レイヤ間動き補償(ILMC)画像、または複合ILR画像が生成され得る。このILMC画像は、ILR画像において逸失している高周波成分を含み得る。高周波成分は、ILR画像の品質を強化するために、ハイパスフィルタを用いてEL基準画像から抽出され得る。例えばBL符号化によって導入され得る、ILR画像における意図されないノイズ情報を低減するために、ILRテクスチャサンプルにローパスフィルタが適用され得る。ILR画像からの低い周波数と、ILMC画像からの高い周波数の組み合わせは、強化レイヤ画像のレイヤ間予測に対して、ILR画像より良好な品質をもたらし得る。
EL時間基準画像から抽出され得る高周波情報、およびILR画像から抽出され得る低周波情報は、ILR画像の品質を改善するように組み合わせることができ、EL符号化のための予測効率が改善され得る。レイヤ間動き補償(ILMC)サブシステムは、ILMC画像を生成するために、例えばBL動き情報を用いて、動き補償をEL時間基準に適用することができる。適応フィルタを設計して、ILMCおよび/またはILR画像に適用することができる。フィルタリングされたILMC画像、およびフィルタリングされたILR画像は、ILR画像の品質を強化するように組み合わされ得る。フィルタ係数は、オーバーヘッドが性能の犠牲なしにビットストリームにおいて許容可能となり得るように、量子化および/または適切にシグナリングされ得る。ILR強化方法は、画像レベルおよび/またはブロックレベルレート歪み(RD)決定に基づいて、イネーブルおよび/またはディスエーブルされ得る。
予測値が生成され得る。例えばEL時間基準画像から抽出され得る高周波情報、およびILR画像から抽出され得る低周波情報は、予測値を生成するように組み合わされ得る。予測値は、EL符号化のレイヤ間予測のために用いられ得る。予測値の一例は、強化型レイヤ間基準(EILR)画像とすることができる。EILR画像に関連して本明細書で述べられる1または複数の例は、予測値に適用することができ、逆も同様である。例えばILR画像の輝度およびクロミナンス成分は、例えば本明細書で述べられるようにEILR画像を生成するために強化され得る。
EILR画像の輝度成分が生成され得る。図9は、EILR画像の輝度成分の生成の例を示す。EL符号化のためのレイヤ間基準画像は、例えば、マッピングされたBL動き情報を用いて、EL時間基準画像に動き補償を適用することによって生成され得る。時間tにおいて位置(x,y)にあるILMC画像内のブロックBILMC,t(x,y)に対して、mvx、mvyは、それぞれマッピングされたBL動きベクトルMVBL,tの水平および垂直成分を表すことができる。対応するBLブロックが単予測されるときは、ブロックBILMC,t(x,y)は、式(1)により(mvx,mvy)によって表されるように、EL時間基準画像ELx内の一致するブロックを動き補償することによって生成され得る。
ILMC,t(x,y)=BILMC,t(x+mvx,t+mvy) (1)
対応するBLブロックが双予測されるときは、ブロックBILMC,t(x,y)は、式(2)により2つのEL時間基準画像ELx0およびELx1から取得される2つの予測成分を組み合わせることによって生成され得る。
ただし、(mvx0,mvy0)および(mvx1,mvy1)は、それぞれ基準画像ELx0およびELx1を指し示す動きベクトルとすることができる。対応するBLブロックがイントラ符号化されるときは、BILMC,t(x,y)のサンプルは、式(3)に示されるように、ILR画像内の一緒に配置されたブロックのそれらから直接コピーされ得る。
ILMC,t(x,y)=BILR,t(x,y) (3)
ELテクスチャ情報は、ILR画像を生成するためのダウンサンプリングおよび/またはアップサンプリングプロセスによって除去され得る、高周波情報を含み得る。ILR画像における不鮮明な縁部およびテクスチャは、対応するILMC画像の高周波情報から復元され得る。ILR画像は、再構成されたBL画像から直接生成することができ、これはBLビデオとELビデオの間で解像度が異なる場合はアップサンプリングされ得る。ILR画像の品質は、BL画像のそれに依存することができ、これは予想されないノイズおよび/または量子化誤差を含み得る。悪化したILR画像品質は、結果としてELビデオの効率の低い符号化となり得る。レイヤ間予測は、例えば失われた高周波、量子化誤差、および/またはILR画像のノイズによって被った品質ロスを補償するように、EL符号化のために、ILMC画像の高周波とILR画像の低周波を組み合わせることによって強化され得る。式(4)に表され、図9に示されるように、時間tにおけるILR画像902およびILMC画像904を所与として、対応するEILR画像906は、ILMC画像904にハイパスフィルタ908を適用し、ILR画像902にローパスフィルタ910を適用し、フィルタリングされた信号を912において加算することによって生成され得る。
ただし
は、2次元畳み込みを表す。式(4)に示されるように、EILR画像は1または複数のフィルタリングプロセスから生成され得る。しかし式(4)の他の変形も有用に適用され得る。例えばいくつかのEL画像に対しては、ILR画像にはローパスフィルタを適用するが、ILMC画像にはハイパスフィルタを適用しないことが有益となる場合があり、例えばELレイヤ間予測に対して、専らILR画像のローパス成分を用いることが有益となり得る。いくつかのEL画像に対しては、ILMC画像にはハイパスフィルタを適用するが、ILR画像にはローパスフィルタを適用しないことが有益となる場合があり、例えばフィルタリングされていないILR画像に高周波情報を加えることが有益となり得る。この場合は、BL画像およびEL画像が同じ解像度を有する場合の、SNRスケーラビリティに対して適し得る。ILR画像における高周波情報を低減し得る、ダウンサンプリング/アップサンプリングプロセスは、ILR画像の生成において省かれ得る。さらに他のEL画像に対しては、式(4)に示されるように、ハイパスフィルタリングされたILMC画像およびローパスフィルタリングされたILR画像を一緒に加算することが有益となり得る。またEILR画像を生成するためにハイパスフィルタおよびローパスフィルタの両方が適用され得る場合は、フィルタトレーニングプロセスの複雑さと、EILR画像の品質の間の種々のトレードオフ考慮を前提として、2つのフィルタは共同でまたは別々に導出され得る。
EILR画像を生成するためには、いくつかの方法が用いられ得る。
EILR画像は、ILR画像にローパスフィルタを適用することによって生成され得る。
EILR画像は、ハイパスフィルタリングされたILMC画像から取得された高周波情報を、フィルタリングされていないILR画像に加算することによって生成され得る。
EILR画像は、ハイパスフィルタリングされたILMC画像から取得された高周波情報と、ローパスフィルタリングされたILR画像から取得された低周波情報とを組み合わせることによって生成され得る。2つのフィルタは、例えば両方のフィルタを同時に最適化することによって共同で導出され得る。
EILR画像は、ハイパスフィルタリングされたILMC画像から取得された高周波情報と、ローパスフィルタリングされたILR画像から取得された低周波情報とを組み合わせることによって生成され得る。2つのフィルタは、初めにハイパスフィルタがトレーニングプロセスの一部としてILR画像により導出され得るように、別々に導出され得る。ハイパスフィルタをILMC画像に適用した後に、ハイパスフィルタリングされたILMC画像に基づいてローパスフィルタが導出され得る。最初にILR画像に基づいてローパスフィルタを導出および適用し、フィルタリングされたILR画像に基づいてハイパスフィルタを導出することも可能である。
フィルタ係数に対する詳細な導出プロセスの例が、本明細書で開示される。
式(1)および(2)に示されるように、対応するILMC画像を生成するために、マッピングされたBL動きベクトルMVBL,tが用いられ得る。マッピングされたBL動きベクトルは、BL画像の圧縮された動きフィールド、またはBL画像の圧縮されていない動きフィールドから導出され得る。圧縮されたBL動きフィールドが用いられるときは、対応するBL動きは16×16ブロックのユニットで記述することができ、例えば16×16ブロックは同じ動き情報を有することができ、一方、圧縮されていないBL動きフィールドに対しては4×4ブロックのユニットが用いられ得る。さらに、ILMC画像生成のために圧縮されていない動きが用いられるときは、BL動きフィールドの圧縮は、対応するEL画像の符号化および/または復号の後に遅らせ得る。圧縮されたBL動きフィールドは、次に続くBL画像の時間的動きベクトル予測のために用いられ得る。圧縮されていないBL動きフィールドを用いることは、式(4)におけるEILR画像のより良好な品質改善をもたらし得るが、より高い計算の複雑さに繋がり得る。
ILMC画像が、対応するマッピングされたBL動き情報に基づいてILMC画像内のブロックに対する動き補償された予測を適用することによって、ブロックごとに生成され得ることを前提にすると、2つの隣接するILMCブロックは異なる動きベクトルを有する場合があり、隣接するILMCブロック間に望ましくないブロック化アーチファクト(例えば隣接するILMCブロック間の偽の境界)を生成し得る。このようなILMC画像が、式(4)におけるハイパスフィルタを導出するために用いられたときは、偽の境界は、設計されるハイパスフィルタ係数の精度を著しく悪化させる場合があり、したがってEILR画像の品質を低下させる。EILR画像内のブロックに対して、式(4)に示されるようにハイパス情報を抽出するために、ILMC画像内の対応するエリアを生成するために、動き補償された予測の拡張されたブロックサイズが考慮され得る。例えばEILR画像のブロックが、N×Nのブロックサイズ、およびM×Mのハイパスフィルタを有する場合は、式(1)および(2)により、ハイパスフィルタリングに対するILMC画像内の対応するエリアを生成するために、各方向における長さがN+[M/2]×2の拡張されたブロックが用いられ得る。
式(1)および(2)において、ILMCブロックを生成するために用いられ得る、マッピングされたBL動きベクトルは、整数位置または小数位置を指し示すことができる。小数画素精度による動き補償は、小数画素位置でのサンプル値を計算するための内挿プロセスが必要になり、これは高い計算の複雑さ、およびEILR画像の生成に対するメモリアクセス要件を招き得る。式(1)および(2)におけるマッピングされたBL動きベクトルは、このような小数の動き補償内挿を避けるために、例えば対応するILMCブロックを形成する前に、最も近い整数画素位置に丸められ得る。
EILR画像のクロミナンス成分は、いくつかの方法で生成され得る。
EILR画像のクロミナンス成分は、例えばコピー動作を除いてクロミナンス成分のさらなる処理なしに、ILR画像のクロミナンス成分を直接コピーすることによって生成され得る。
EILR画像のクロミナンス成分は、ILMC画像からクロミナンス成分をコピーすることによって生成され得る。対応するBLブロックがインター符号化される場合は、EILRブロックのクロミナンス成分は、マッピングされたBL動き情報を用いて、EL時間基準画像のクロミナンス成分に対して、動き補償された予測を適用することによって取得され得る。対応するBLブロックがイントラ符号化される場合は、EILRブロックのクロミナンス成分は、ILR画像からクロミナンスブロックをコピーすることによって生成され得る。
EILR画像のクロミナンス成分は、EILR画像におけるクロミナンス成分を生成するために、本明細書で述べられるのと同じ輝度成分のILR強化方法を用いて生成され得る。EILR画像のクロミナンス成分は、式(4)に示されるように、ILMC画像におけるクロミナンス成分の高周波と、ILR画像におけるクロミナンス成分の低周波を組み合わせることによって生成され得る。
EILR画像のクロミナンス成分は、ILMCクロミナンス成分およびILRクロミナンス成分の重み付け予測を用いて生成され得る。
基準リストが構成され得る。生成されたEILR画像は、レイヤ間予測に対するEL基準画像リストに追加され得る。異なる生成方法により、ILR画像およびEILR画像が異なる特性を有し得ることを前提として、ILR画像およびEILR画像の両方がEL基準画像リストに含められ得る。ELスライスがPスライスである場合は、EILR画像は、基準リストL0内にILR画像の後に1つの追加の基準画像として追加され得る。ELスライスがBスライスである場合は、EILR画像は基準リストL1の終わりに配置することができ、ILR画像は基準リストL0の終わりに配置することができる。
符号化/復号の複雑さを低減するために、ELスライスがBスライスである場合は、基準リストL0および基準リストL1内のILR画像を置き換えるように、EILRが用いられ得る。
EILR画像は、シグナリングされる、例えばスライスレベルで明示的にシグナリングされるILR画像並べ換えコマンドを用いて、リストL0、リストL1、または両方に挿入され得る。EILR画像が追加され得る基準画像リスト内の位置は、選択され得る。決定は、前に符号化された画像におけるEILR画像の使用に基づくことができる。例えばEILR画像使用が増加している場合は、EILR画像はリスト内で前方に移動され得る。EILR画像使用が減少している場合は、それに従って後方に移動され得る。
式(4)におけるハイパスフィルタおよびローパスフィルタのフィルタ係数が、導出され得る。例えばハイパスフィルタおよび/またはローパスフィルタの係数を含む、最適フィルタ係数fopt(i,j)を導出することであり、これはOrgEL,tとして表され得る時間tにおけるもとのEL画像と、生成されたEILR画像EILRtとの間の歪みを最小にすることができる。EILR画像を生成する選択された方法に応じて、本明細書で述べられるように最適フィルタ係数を導出するように種々の方法が適用され得る。
図10に示されるようにEILR画像1002は、ILR画像1006にローパスフィルタ1004を適用することによって生成され得る。式(4)は以下のように簡略化され得る。
ローパスフィルタ1004の最適係数を導出するために、線形最小平均二乗誤差(LMMSE)推定方法が適用され得る。LMMSEモジュールは、LRtおよびOrgEL,tのサンプルを入力トレーニングデータセットとして用いることができ、OrgEL,tとEILRtの間の歪みが、式(6)に示されるように低減または最小化され得るように、最適フィルタ係数を出力することができる。
opt=arg min[Σx,y(Σi,jLP(i,j)×ILRt(x+i,y+j)−OrgELt(x,y))2] (6)
導出されたfLPの係数のローパス性質を確実にするために、LMMSEトレーニングプロセス時に、fLPの係数の合計が1に等しくなり得るように強制され得る。
図11に示されるように、EILR画像1102は、ハイパスフィルタ1106によってILMC画像1104から取得された高周波情報を、ILR画像1108に加算することによって生成され得る。式(4)は以下のように簡略化され得る。
LMMSEモジュールは、ILMCt、ILRt、およびOrgEL,tのサンプルを入力トレーニングデータセットとして用いることができ、式(8)におけるLMMSE推定に基づいて最適フィルタ係数を出力することができる。
opt=arg min[Σx,y(Σi,jHP(i,j)×ILMCt(x+i,y+j)+ILRt(x,y)−OrgELt(x,y))2] (8)
導出されたfHPの係数のハイパス性質を確実にするために、LMMSEトレーニングプロセス時に、fHPの係数の合計が0に等しくなり得るように強制され得る。
図9に示されるように、EILR画像906は、例えば式(4)により、ハイパスフィルタ908によってILMC画像904から取得された高周波情報と、ローパスフィルタ910によってILR画像902から取得された低周波情報とを組み合わせることによって生成され得る。fHPおよびfLPの最適係数は、例えば式(9)に示されるように、LMMSE問題を解くことによって共同で導出され得る。
opt=arg min[Σx,y(Σi,jHP(i,j)×ILMCt(x+i,y+i)+Σi,jLP(i,j)×ILRt(x+i,y+j)−OrgEL,t(x,y))2] (9)
生成されたEILR画像のエネルギーが、ILR画像のそれと一貫性があり得ることを確実にするために、LMMSEトレーニングプロセス時に、fHPおよびfLPの成分の合計が1に等しくなることが強制され得る。
2つのフィルタの係数の共同導出は、もとのEL画像と出力EILR画像の間の最小化された歪みの観点から、フィルタ係数の大域最適解を達成することができる。しかし単一のトレーニングプロセスに対する増大する入力係数の数を前提とすると、共同トレーニング方法は大きな行列の乗算および反転を必要とする場合があり、これはLMMSEトレーニングプロセスの計算の複雑さを増大し得る。共同トレーニング方法から導出されるフィルタ係数は、ハイパスフィルタおよびローパスフィルタではない場合があり、例えばハイパスフィルタおよび/またはローパスフィルタ以外のものとなり得る。出力フィルタのハイパス特性およびローパス特性を確実にするために、fHPがハイパスフィルタでありおよびfLPがローパスフィルタであることを強制することによってfHPおよびfLPのフィルタ係数を計算するように、制約付き共同導出方法が適用され得る。例えばフィルタ係数fHPおよびfLPはやはり式(9)に基づくが、fHPにおける係数の合計は0に等しく、fLPにおける係数の合計は1に等しいという制約を有して導出され得る。複雑さを低減し、2つの出力フィルタのハイパス性質およびローパス性質を確実にするために、2つのフィルタの係数は別々に導出され得る。fHPの係数は、LMMSEトレーニングのための入力としてILR画像のサンプルを用い、係数の合計が0になり得ることを強制することによって、式(8)に基づいて導出され得る。導出されたフィルタfHPは、ILMC画像ILMCtに適用されて、対応する高周波画像ILMCt hを生成することができる。ILMCt hのサンプルを入力として用いることによって、トレーニングプロセスの第2の段階において、フィルタ係数の合計が1になり得るという制約を有して、式(10)におけるLMMSE推定問題を解くことにより、fLPの係数が取得され得る。
opt=arg min[Σx,y(ILMCt h(x,y)+Σi,jLP(i,j)×ILRt(x+i,y+j)−OrgEL,t(x,y))2] (10)
フィルタ係数を計算するために、制約無し共同導出方法を適用することができる。制約無し共同導出方法では、fHPはハイパスフィルタに制約されなくてもよく、および/またはfLPはローパスフィルタに制約されなくてもよく、例えばfHPおよび/またはfLPは任意のフィルタとすることができる。
フィルタのサイズは、オーバーヘッドの大きさおよび計算の複雑さに比例し得る。例えば3×3フィルタは、送信されることになる9個のフィルタ係数を有し、1つのサンプルをフィルタリングするために9回の乗算および8回の加算が必要になり、5×5フィルタは、送信されることになる25個のフィルタ係数を有し、1つのサンプルをフィルタリングするために25回の乗算および24回の加算が必要になり得る。より大きなフィルタは、より良好な結果をもたらすことができる。フィルタサイズは、計算の複雑さ、オーバーヘッド、および性能のバランスを達成するように選択され得る。シミュレーション結果は、3×3のフィルタサイズは方法に対する満足なトレードオフを生じることを示している。フィルタサイズは、例えば特定の符号化システムに対する複雑さと性能の異なるバランスを達成するように、ユーザによって変更され得る。
本明細書で開示されるフィルタ導出方法は、ILMC画像およびILR画像の利用可能なサンプルが、LMMSEトレーニングプロセスのために使用され得るように実施され得る。生成されるEILRはEL符号化のレイヤ間予測効率を改善することができるが、EILR画像の品質はマルチパス符号化を適用することによってさらに向上され得る。このシナリオでは、フィルタ係数は2回導出され得る。例えば第1の導出手順は、LMMSEトレーニングのために利用可能なサンプルを用いることができる(例えば本明細書で述べられるように)。結果としてのフィルタ係数は、EL画像を符号化するための対応するEILR画像を生成するために用いられ得る。EL画像が符号化された後に、エンコーダは、EL画像によって参照されるEILRサンプルの位置を記録することができる。第2のパスではエンコーダは、これらの参照されたサンプル位置を用いてフィルタ係数を導出することができる。第2のパスから導出されたフィルタ係数はEL予測のために用いられるEILR画素の品質を向上および/または最大化することができるが、一方、第1のパスから取得されたフィルタ係数は参照されないEILR画素を過大に強化することによって参照されるEILR画素の品質を犠牲にし得るという点で、フィルタ係数の第2の組はフィルタ係数の第1の組より良好となり得る。
ローパスフィルタおよび/またはハイパスフィルタのために、フィルタ(例えば固定の予め規定されたフィルタ)が用いられ得る。この場合、ILR画像および/またはILMC画像に適用されるフィルタは、前に規定されたフィルタのリストから選択され得る。このリストは、デコーダに既知とすることができる。リストがデコーダに既知でない場合は、フィルタ係数はシグナリングされ得ず、代わりに、選択された1または複数のフィルタに対する1または複数のインデックスがシグナリングされ得る。例えばこれらのフィルタは、異なる空間スケーリング率を反映するように設計することができ、予想される高周波の損失を反映する。予め規定されたフィルタは、フィルタ導出プロセスを避けることによって符号化の複雑さを簡略化することができる。
トレーニングされたフィルタは、実数値係数を有することができ、これは送信の前に量子化され得る。実数値フィルタffloatは、fintとして表され得る整数値フィルタによって近似され得る。量子化のために、一様量子化器が用いられ得る。量子化器の精度は、係数のダイナミックレンジに関して選ばれ得る。量子化器の精度は、フィルタをトレーニングするために用いられる方法に依存し得る。例えば量子化器の精度は、低周波情報を個別にまたは高周波情報と組み合わせて用いるフィルタトレーニング方法に対しては係数当たり4ビット、高周波情報を用いたフィルタトレーニング方法に対しては係数当たり6ビットとすることができる。他の量子化器もそれらの性能が特定の符号化システムに対して、より良好である場合は、ユーザによって選ばれ得る。
式(11)に示されるように、実数値フィルタと整数値フィルタの間の関係を記述するために因子、例えば量子化器ステップサイズkが用いられ得る。
float=fint×k (11)
式(11)において、因子kは実数値である。この因子kをビットストリームにおいてシグナリングするために、因子kは式(12)に従って2つの整数値MおよびNによって近似され得る。
因子kは、整数値Mによる乗算として適用され、その後に右へのNビットのビットシフトが続く。浮動小数点kが計算された後に、式(13)および(14)を用いてMおよびNによるその整数近似が計算され得る。
M=min{2m_bits−1,Round[abs(k)×2N+0.5]} (14)
ただし、n_bitsは因子Nのためのビット数であり、m_bitsは因子Mのためのビット数であり、Round(x)は次の整数値への下向きのxの丸めを表し、abs(x)はxの絶対値を表し、min(x,y)およびmax(x,y)はそれぞれxおよびyの最小および最大値を表す。
kは、量子化器ステップサイズに等しくすることができる。量子化プロセス時の丸め問題により、kの実際の値は量子化器ステップサイズよりわずかに異なり得る。例えばフィルタ係数の合計が32に等しくなり得る場合は、合計が31または33など、近くの値に等しくなり得ることが起こり得る。因子kは、例えばエネルギーをベースとする最適化および/または係数をベースとする最適化を用いて、さらに最適化され得る。
例えばエネルギーをベースとするkの導出では、因子kはエネルギー計算に基づいて最適化され得る。どのフィルタトレーニング方法が用いられるかに応じて、異なるエネルギーが計算され得る。SumLP(x,y)は、位置(x,y)におけるサンプルに対するローパスフィルタリングプロセス時の合計を表すことができる。SumHP(x,y)は、位置(x,y)におけるサンプルに対するハイパスフィルタリングプロセス時の合計を表すことができる。これらの総和は、本明細書での式(27)および(28)において開示される。
ローパスILRフィルタ、例えばローパスILRフィルタのみがトレーニングされ得る。因子kは、EILR画像と、もとのEL画像との間の歪みエネルギーが低減または最小化されるように計算され得る。kは式(15)に表されるように計算され得る。
ハイパスILMCフィルタ、例えばハイパスILMCフィルタのみがトレーニングされ得る。因子kは、フィルタリングされたILMC画像と、もとの差分画像との間の歪みエネルギーが低減または最小化されるように計算され得る。もとの差分画像は、もとのEL画像と、ILR画像の間の差として定義され得る。kは式(16)に表されるように導出され得る。
2つのフィルタの共同トレーニングに対しては、EILR画像と、もとのEL画像との間の歪みエネルギーが低減または最小化され得る。kは、式(17)に表されるように計算され得る。
複数の因子例えば2つの因子が、複数の因子例えば2つのフィルタの個別のトレーニングのために用いられ得る。ILMCフィルタのための因子kHPは、式(18)に基づいて計算され得る。
ILMCフィルタは、因子kHPを用いてILMC画像に適用することができ、結果としてILMCt,filtを生じる。ILRフィルタは、因子kLPが未だ計算されていない場合があるので、因子を考慮せずにILR画像に適用することができ、結果としてILRt,filtを生じる。フィルタを適用した後に、ILRフィルタのための第2の因子kLPが式(19)に従って計算され得る。
kが、または個別のトレーニングの場合では2つの因子kHPおよびkLPが計算された後に、因子に対する整数近似を見出すために、式(13)および(14)が適用され得る。個別のトレーニングに対しては、2つの因子kHPおよびkLPは異なり得る。MおよびNの2つの組、すなわちkHPのための1つの組(MHPおよびNHP)、ならびにkLPのための別の組(MLPおよびNLP)が用いられ得る。
この方法は、様々なタイプのフィルタに、それらの独立の合計とは独立して適用可能とすることができる。MおよびNはビットストリームにおいてシグナリングされ得るが、2つの整数MおよびNをシグナリングするオーバーヘッドは比較的軽微となり得る。
係数をベースとするkの導出では、因子kはフィルタ係数の値に基づいて計算され得る。この方法は、浮動小数点係数の合計が1に等しい場合に適用され得る。これは低周波情報を個別にまたは高周波情報と組み合わせて用いるフィルタトレーニング方法、および共同導出フィルタトレーニング方法のILRフィルタの場合に当てはまる。因子kは、式(20)を用いて計算され得る。
ここでsum_filter_coeffは、フィルタ係数の合計である。
係数の合計はデコーダでも計算され得るので、MおよびNはビットストリームにおいて送信されてもされなくてもよい。これは、例えば浮動小数点係数の合計が1に等しい場合に適用され得る。
フィルタが設計および/または量子化された後に、フィルタはILMC画像および/またはILR画像にそれぞれ適用され得る。2つのフィルタの出力は、組み合わされてEILR画像を形成することができる。式(21)〜(31)は、フィルタリング、およびフィルタ出力の組み合わせの例を表す。式(21)〜(31)において、
はパッディングエリアのサイズ、例えばフィルタがS×Sのサイズであるときに、現在のサンプルのそれぞれ側へのフィルタ範囲を表す。
ILRフィルタがトレーニングされるときは、プロセスは式(21)〜(23)によって表され得る。
ILRfilt(x,y)=Round{[abs(Sum(x,y)×MLP)+(1≪(NLP−1))]≫NLP}×sign(Sum(x,y)×MLP) (22)
EILR(x,y)= Clip(ILRfilt(x,y)) (23)
ILMCフィルタがトレーニングされるときは、プロセスは式(24)〜(26)によって表され得る。
ILMCfilt(x,y)=Round{[abs(Sum(x,y)×MHP)+(1≪(NHP−1))]≫NHP}×sign(Sum(x,y)×MHP) (25)
EILR(x,y)=Clip(ILR(x,y)+ILMCfilt(x,y)) (26)
両方のフィルタがトレーニングされる場合は、プロセスは式(27)〜(31)によって表され得る。
ILMCfilt(x,y)=Round{[abs(SumHP(x,y)×MHP)+(1≪(NHP−1))]≫NHP}×sign(SumHP(x,y)×MHP) (29)
ILRfilt(x,y)=Round{[abs(SumLP(x,y)×MLP)+(1≪(NLP−1))]≫NLP}×sign(SumLP(x,y)×MLP) (30)
EILR(x,y)=Clip(ILRfilt(x,y)+ILMCfilt(x,y)) (31)
これらの式において、abs(x)はxの絶対値を表すことができ、≪xおよび≫xはxビット位置だけの左および/または右へのビットシフトを表すことができる。Sign(x)はxの符号を返すことができ、min(x、y)およびmax(x、y)は、それぞれxおよびyの最小および/または最大値を返すことができる。MおよびNの添字は、この因子がHPフィルタに属するかLPフィルタに属するかを表すことができる。共同フィルタ導出プロセスの場合は、因子は両方のフィルタに対して等しくなり得る。Round()演算子は、後に続く項が次の整数値に向けて下向きに丸められることを意味する。1≪(NLP/HP−1)の項は、この丸め演算の一部とすることができる。式(22)、(26)および(31)ではEILRサンプルの値が、用いられるビット深さのダイナミックレンジに、例えば8ビットサンプルに対しては0から255の範囲にクリップされ得る。
ILR強化は、選択的にイネーブルおよび/またはディスエーブルされ得る。生成されたEILR画像は、特に追加のシグナリングオーバーヘッド、例えばフィルタ係数および正規化因子などのパラメータを考えると、ELビデオシーケンスの画像に対するレイヤ間予測を改善できるまたはできない場合がある。この目的のために、画像またはスライスレベルにおいてILR強化方法をイネーブルおよび/またはディスエーブルするように、ラグランジュ型RDコストベース比較が用いられ得る。例えばEILR画像の使用をイネーブルするかディスエーブルするかの決定は、それぞれ式(32)および式(33)による、EILR画像がディスエーブルされたときの場合(RDILR)と、EILR画像がイネーブルされたときの場合の、RDコストの比較に基づくことができる。
RDILR=DILR (32)
RDEILR=DEILR+λ(num_bits_coeff+num_bits_factor) (33)
ただしDILRおよびDEILRは、それぞれもとのEL画像と比較したときの、ILRおよびEILR画像の歪みを表すことができる。歪みを導出するために、非限定的に二乗誤差和(SSE)、差分絶対値和(SAD)、および/または変換差分絶対値和(SATD)などの種々のメトリックが適用され得る。num_bits_coeffは、量子化されたフィルタ係数を符号化するオーバーヘッドとすることができ、num_bits_factoは、因子Mおよびその対応するシフトNを符号化するオーバーヘッドとすることができる。λはラグランジュの重み付け因子とすることができる。RDEILRがRDILRより小さい場合は、EILR画像は、EL符号化の性能に関してILR画像より、強化されたレイヤ間予測品質と増加されるオーバーヘッドとの間の、より良好なトレードオフを示し得る。ILR強化方法は、EL画像に対してイネーブルされ得る。そうでない場合(例えばRDEILRがRDILR以上である場合)は、ILR強化はEL画像に対してディスエーブルされ得る。ILR強化の使用は、高レベルシグナリング方法によってデコーダ側にシグナリングされ得る。
ラグランジュ型RDベースの画像レベル切り換え方法は、ILR画像のサンプルに対する領域ベースの強化を適用することによってさらに改善され得る。画像レベル切り換えの使用において、同じフィルタがILR画像のサンプルに適用され得る。ILR画像の平均の品質は改善され得るが、ILR画像のいくつかの領域の品質は向上され、一方、他の領域の品質はより悪くなる場合があり得る。ILR画像の品質を改善するように特定の領域に対して強化方法が適用されるべきかどうかを決定するために、領域ベースの切り換え方法が用いられ得る。領域は、任意のレベルでのおよび任意のサイズでの操作ユニット、例えば画像内の特定の寸法および位置の領域、ブロック(例えばLCU、CU、PU)のグループ、または同様なものとすることができる。領域ベースの切り換え方法に対しては、EILR画像は通常通りに生成され得る。EILR画像ともとのEL画像の間の歪み、およびILR画像ともとのEL画像の間の歪みは、選択された操作レベルにおいてそれぞれ比較され得る。例えば領域ベースの方法は、64×64ブロックレベルにおいて動作することができる。所与の場所において、サイズ64×64のEILRユニットの歪みが、対応するサイズ64×64のILRユニットの歪みより低い場合は、EILRユニットのサンプルが、EILR画像を生成するために使用され続けることができる。そうでない例えばEILR歪みがILR歪みより大きいまたは等しい場合は、EILRユニットのサンプルを置き換えるように、ILRユニットのサンプルが用いられ得る。ILR強化の使用は、復号のためにデコーダが同じEILR画像を生成できるように、領域に対してシグナリングされ得る。EILRマップが生成され得る。EILRマップは領域(例えば64×64ブロック)に対して1つのフラグを含むことができ、これはその領域が強化されるかどうかを表す。ビットストリームのオーバーヘッドを低減するために、EILRマップはいくつかのよく知られているソース符号化方法、例えば指数ゴロム符号、ランレングス符号、および/または算術符号を用いて圧縮され得る。
図12は、EILRマップを用いたおよび用いない例示のILR強化プロセス1200を示す。1202および1204では、EILRマップが用いられるかどうかにかかわらず、ILMC画像が生成され得る。1206および1208では、1または複数のフィルタがトレーニングされ得る。1210および1212では、EILRマップが用いられるかどうかにかかわらず、EILR画像が生成され得る。EILRマップが用いられる場合は、1214でそれを生成することができ、EILR画像が更新され得る。1216ではEL画像が符号化され得る。図13は、強化された(EILR)ブロック1302、および強化されない(ILR)ブロック1304を示す、例示のEILRマップ1300を示す。
EILRマップ1300を所与として、エンコーダは、EILRサンプルの品質がILRサンプルのそれを上回り得る領域を知ることができる。この知識は、例えばフィルタ係数に対する第2の導出プロセスを適用することによって、レイヤ間予測の効率を改善することができる。第2の導出プロセスでは、フィルタ係数をトレーニングするために、ILR強化がイネーブルされた領域1302のサンプルを用いることができ、例えば領域1304のサンプルは省かれ得る。
図14は、2フィルタ導出プロセスを用いた例示のILR強化プロセス1400を示す。1402でILMC画像が生成され得る。1404で1または複数のフィルタがトレーニングされ得る。1406でEILR画像が生成され得る。1408でEILRマップが生成され得る。マップは、1410でのフィルタトレーニングのために用いられ得る。1412で、EILRマップに基づいてEILR画像が生成され得る。
ELのレイヤ間予測のためにILR強化を適用するために、EILRマップ、量子化された整数フィルタ係数、およびスケーリング因子は、復号のためにデコーダに同じEILR画像を再生させるように、スライスヘッダの一部としてビットストリーム内にシグナリングされ得る。例えば表1は、共同フィルタ導出プロセスが、フィルタ係数に対する4ビットの精度で適用されるときの、スライスヘッダの変更されたシグナリングの例を示す。
フラグeilr_enabled_flagは、現在のスライスに対してILR強化がイネーブルされるときは1の値を有し得る。フラグeilr_enabled_flagは、現在のスライスに対してILR強化がディスエーブルされるときは0の値を有し得る。
eilr_coeff_hp_plus8[i]から8を引いた値は、ILR強化のために用いられるハイパスフィルタのi番目の係数を指定することができる。eilr_coeff_hp_plus8[i]の値は、両端を含めて0..15の範囲にあるべきである。
eilr_coeff_lp_plus8[i]から8を引いた値は、ILR強化のために用いられるローパスフィルタのi番目の係数を指定することができる。eilr_coeff_lp_plus8[i]の値は、両端を含めて0..15の範囲にあるべきである。
値eilr_scaling_factor_absは、フィルタ係数を逆量子化するためのスケーリング因子の絶対値を指定することができる。
値eilr_factor_signは、フィルタ係数を逆量子化するためのスケーリング因子の符号を指定することができる。
値eilr_bit_shiftは、フィルタ係数を逆量子化するときに、スケーリング動作の後に右シフトされることになるビット数を指定することができる。
構文要素num_coeff_hpおよびnum_coeff_lpは、それぞれハイパスフィルタおよびローパスフィルタの係数の数を指定することができる。
EILR画像を生成するために、異なるILR強化方法が用いられ得る。どの方法が選択されるかの決定は、シーケンスレベルおよび/または画像/スライスレベルで行われ得る。決定がシーケンスレベル行われる場合は、選択された方法は複数の画像、例えばビデオシーケンスのすべての画像に対して用いられ得る。選択されたILR強化方法は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、および/または画像パラメータセット(PPS)などの、任意のパラメータセットにおいてシグナリングされ得る。決定が画像/スライスレベルで行われる場合は、異なる画像/スライスは異なるILR強化方法を用いることができる。シーケンスレベルでデフォルトの方法を選択することができ、画像レベルで特定の画像に対して異なる方法を選択することができ、画像レベルでシグナリングすることができる。
EL画像に対して1つの特定のILR強化方法を使用する選択方法に加えて、複数のILR強化方法を使用する、例えば複数のEILR画像を生成することも可能である。EILR画像は異なる特性を示すことができ、EL符号化のための基準画像として用いられたときに、異なる予測信号をもたらすことができる。例えばいくつかのEILR画像はBL画像の失われた高周波を補償する能力を有し、いくつかのEILR画像はBL画像の圧縮アーチファクトを軽減することができる。異なる方法から生成された複数のEILR画像が組み合わされた場合、EL圧縮効率は改善され得る。複数のEILR画像は、EILR画像例えば最良のEILR画像を選択し、それを基準画像リストに追加することによって組み合わされ得る。複数のEILR画像は、2つ以上のEILR画像を基準画像リストに追加することによって組み合わされ得る。複数のEILR画像をどのように組み合わせるかの決定は、VPS、SPS、PPSまたはスライスヘッダにおいてシグナリングすることによって、シーケンスレベルおよび/または画像レベルで行われ得る。
図15は、ILR強化の例を示す。第1の基準画像1502および第2の基準画像1504を所与とし、両方の基準画像は時間tにおいて利用可能となることができ、予測値1506は、第1の基準画像1502の第1のデータ1510(例えば画素値)にローパスフィルタ1508を、第2の基準画像1504の第2のデータ1514にハイパスフィルタ1512を適用することによって生成され得る。例えば第1の基準画像1502は、アップサンプリングされた、前に復号された基本レイヤ画像、例えばILR画像とすることができる。第2の基準画像1504は、前に復号された強化レイヤ画像、例えばILMC画像とすることができる。第2のデータ1514は、ILMC画像の動き補償された画素値を備えることができる。動き補償は、第1の基準画像1502の1または複数の動きベクトルに基づくことができる。フィルタリングされた信号は、線形結合、例えば加算または重み付け加算を用いて1516で組み合わされて、予測値1506を生成することができる。
予測値1506は、第3の基準画像、例えばEILR画像とすることができる。予測値1506は、例えば複合DCTベースのビデオコーデックにおいて、ビデオフレームの画素値を予測するために用いられ得る。
ローパスフィルタ1508および/またはハイパスフィルタ1512の係数は、ビデオビットストリーム内に符号化され得る。ローパスフィルタ1508および/またはハイパスフィルタ1512は、オールパスフィルタとして実施することができ、例えば基本レイヤデータおよび/または強化レイヤデータにフィルタリングを行わないようにすることができる。
本明細書で述べられるプロセスおよび手段は、任意の組み合わせで適用することができ、他の無線技術に対して、および他のサービスのために適用することができる。
WTRUは、物理デバイスの識別、または加入者関連の識別などのユーザの識別、例えばMSISDN、SIP URIなどを指すことができる。WTRUは、アプリケーションベースの識別、例えばアプリケーションごとに用いられ得るユーザ名を指すことができる。
上述のプロセスは、コンピュータおよび/またはプロセッサによる実行のためにコンピュータ可読媒体に組み込まれた、コンピュータプログラム、ソフトウェア、および/またはファームウェアにおいて実施され得る。コンピュータ可読媒体の例は、非限定的に電子信号(有線および/または無線接続を通して送信される)、および/またはコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、非限定的にリードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、非限定的に内蔵ハードディスクおよびリムーバブルディスクなどの磁気媒体、光磁気媒体、および/またはCD−ROMディスクおよび/またはデジタル多用途ディスク(DVD)などの光媒体を含む。WTRU、UE、端末装置、基地局、RNC、および/または任意のホストコンピュータにおける使用のために、無線周波数トランシーバを実施するように、ソフトウェアと関連してプロセッサが用いられ得る。

Claims (21)

  1. ビデオ符号化方法であって、
    第1の基準画像および第2の基準画像を受信するステップと、
    前記第2の基準画像に関連付けられた動き情報に基づいて、前記第1の基準画像の複数のピクセル値に動き補償を実行して、複数の動き補償されたピクセル値を生成するステップと、
    前記第2の基準画像をアップサンプリングして、第3の基準画像を生成するステップと、
    前記複数の動き補償されたピクセル値にハイパスフィルタを適用して、高周波情報を生成するステップと、
    前記第3の基準画像にローパスフィルタを適用して、低周波情報を生成するステップと、
    前記高周波情報および前記低周波情報の組み合わせに基づいて、予測値を生成するステップと
    を含む、方法。
  2. 基準画像として前記予測値を用いて現在の画像を生成するステップをさらに含む、請求項1に記載の方法。
  3. 前記現在の画像は、強化レイヤ画像を備える、請求項2に記載の方法。
  4. 前記第1の基準画像および前記第2の基準画像は、異なるレイヤからのものである、請求項1に記載の方法。
  5. 前記第1の基準画像は、強化レイヤ基準画像を備える、請求項1に記載の方法。
  6. 前記第2の基準画像に関連付けられた前記動き情報は、アップサンプリングされ、前記動き補償は、前記アップサンプリングされた動き情報に基づいて実行される、請求項1に記載の方法。
  7. 前記第2の基準画像は、基本レイヤ基準画像を備える、請求項1に記載の方法。
  8. 前記組み合わせは、加算または重み付け加算のうちの少なくとも1つを含む、請求項1に記載の方法。
  9. 前記ハイパスフィルタに関連付けられた第1の複数のフィルタ係数、および前記ローパスフィルタに関連付けられた第2の複数のフィルタ係数を、ビデオビットストリームに含めるステップをさらに含む、請求項1に記載の方法。
  10. 前記ハイパスフィルタまたは前記ローパスフィルタのうちの少なくとも1つが、オールパスフィルタである、請求項1に記載の方法。
  11. ビデオ符号化デバイスであって、
    プロセッサ実行可能命令を記憶するように構成されたメモリと、
    前記プロセッサ実行可能命令を実行するように構成されたプロセッサであって、
    第1の基準画像および第2の基準画像を受信し、
    前記第2の基準画像に関連付けられた動き情報に基づいて、前記第1の基準画像の複数のピクセル値に動き補償を実行して、複数の動き補償されたピクセル値を生成し、
    前記第2の基準画像をアップサンプリングして、第3の基準画像を生成し、
    前記複数の動き補償されたピクセル値にハイパスフィルタを適用して、高周波情報を生成し、
    前記第3の基準画像にローパスフィルタを適用して、低周波情報を生成し、
    前記高周波情報および前記低周波情報の組み合わせに基づいて、予測値を生成する
    ように構成されたプロセッサと
    を備える、ビデオ符号化デバイス。
  12. 基準イメージとして前記予測値を用いて画像を符号化することをさらに含む、請求項11に記載のビデオ符号化デバイス。
  13. 前記画像は、強化レイヤ画像を備える、請求項12に記載のビデオ符号化デバイス。
  14. 前記第1の基準画像および前記第2の基準画像は、異なるレイヤからのものである、請求項11に記載のビデオ符号化デバイス。
  15. 前記第1の基準画像は、強化レイヤ基準画像を備える、請求項11に記載のビデオ符号化デバイス。
  16. 前記予測値は、強化型レイヤ間基準(EILR)画像を備える、請求項11に記載のビデオ符号化デバイス。
  17. 前記プロセッサは、前記EILR画像を基準画像として用いて、強化レイヤ画像を符号化するようにさらに構成される、請求項16に記載のビデオ符号化デバイス。
  18. 前記組み合わせは、加算または重み付け加算のうちの少なくとも1つを含む、請求項11に記載のビデオ符号化デバイス。
  19. 前記プロセッサは、前記ハイパスフィルタに関連付けられた第1の複数のフィルタ係数、および前記ローパスフィルタに関連付けられた第2の複数のフィルタ係数を、ビデオビットストリームに含めるようにさらに構成される、請求項11に記載のビデオ符号化デバイス。
  20. 前記ハイパスフィルタまたは前記ローパスフィルタのうちの少なくとも1つが、オールパスフィルタである、請求項11に記載のビデオ符号化デバイス。
  21. 前記第3の基準画像は、レイヤ間基準画像である、請求項1に記載の方法。
JP2016516968A 2013-09-24 2014-09-24 スケーラブルビデオ符号化のためのレイヤ間予測 Active JP6397902B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361881801P 2013-09-24 2013-09-24
US61/881,801 2013-09-24
PCT/US2014/057285 WO2015048176A1 (en) 2013-09-24 2014-09-24 Inter-layer prediction for scalable video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018164575A Division JP2018201245A (ja) 2013-09-24 2018-09-03 スケーラブルビデオ符号化のためのレイヤ間予測

Publications (2)

Publication Number Publication Date
JP2016538740A JP2016538740A (ja) 2016-12-08
JP6397902B2 true JP6397902B2 (ja) 2018-09-26

Family

ID=51845493

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016516968A Active JP6397902B2 (ja) 2013-09-24 2014-09-24 スケーラブルビデオ符号化のためのレイヤ間予測
JP2018164575A Pending JP2018201245A (ja) 2013-09-24 2018-09-03 スケーラブルビデオ符号化のためのレイヤ間予測

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018164575A Pending JP2018201245A (ja) 2013-09-24 2018-09-03 スケーラブルビデオ符号化のためのレイヤ間予測

Country Status (6)

Country Link
US (2) US10148971B2 (ja)
EP (1) EP3050301A1 (ja)
JP (2) JP6397902B2 (ja)
KR (2) KR101946039B1 (ja)
CN (2) CN110460843A (ja)
WO (1) WO2015048176A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9510001B2 (en) * 2013-07-09 2016-11-29 Electronics And Telecommunications Research Institute Video decoding method and apparatus using the same
US11134259B2 (en) 2016-01-15 2021-09-28 Interdigital Madison Patent Holdings, Sas System and method for enhanced motion compensation using adaptive filtering
WO2019031842A1 (ko) * 2017-08-08 2019-02-14 엘지전자 주식회사 영상 처리 방법 및 이를 위한 장치
FR3072850B1 (fr) 2017-10-19 2021-06-04 Tdf Procedes de codage et de decodage d'un flux de donnees representatif d'une video omnidirectionnelle
KR20210145754A (ko) 2019-04-12 2021-12-02 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 행렬 기반 인트라 예측에서의 산출
CN113748676B (zh) 2019-04-16 2024-05-10 北京字节跳动网络技术有限公司 帧内编解码模式下的矩阵推导
WO2020221372A1 (en) 2019-05-01 2020-11-05 Beijing Bytedance Network Technology Co., Ltd. Context coding for matrix-based intra prediction
WO2020221373A1 (en) 2019-05-01 2020-11-05 Beijing Bytedance Network Technology Co., Ltd. Matrix-based intra prediction using filtering
CN113875233B (zh) 2019-05-22 2023-12-15 北京字节跳动网络技术有限公司 使用上采样的基于矩阵的帧内预测
CA3141992A1 (en) * 2019-05-31 2020-12-03 Interdigital Vc Holdings, Inc. Transform selection for implicit multiple transform selection
JP2022535726A (ja) 2019-05-31 2022-08-10 北京字節跳動網絡技術有限公司 行列ベースイントラ予測における制約されたアップサンプリングプロセス
WO2020244610A1 (en) 2019-06-05 2020-12-10 Beijing Bytedance Network Technology Co., Ltd. Context determination for matrix-based intra prediction
WO2021083188A1 (en) 2019-10-28 2021-05-06 Beijing Bytedance Network Technology Co., Ltd. Syntax signaling and parsing based on colour component

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3032088B2 (ja) * 1992-03-03 2000-04-10 株式会社東芝 動画像符号化装置
US5436665A (en) * 1992-03-03 1995-07-25 Kabushiki Kaisha Toshiba Motion picture coding apparatus
CA2127151A1 (en) 1993-09-21 1995-03-22 Atul Puri Spatially scalable video encoding and decoding
JPH11331613A (ja) * 1998-05-20 1999-11-30 Matsushita Electric Ind Co Ltd 階層型映像信号符号化装置と階層型映像信号復号化装置
CA2582665C (en) * 2001-09-12 2012-04-24 Matsushita Electric Industrial Co., Ltd. Picture coding method and picture decoding method
US20130107938A9 (en) 2003-05-28 2013-05-02 Chad Fogg Method And Apparatus For Scalable Video Decoder Using An Enhancement Stream
JP2008517498A (ja) 2004-10-15 2008-05-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間レイヤ動きデータ予測を用いて符号化されたビデオシーケンスを生成するための装置および方法
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
JP4486560B2 (ja) * 2005-07-14 2010-06-23 日本電信電話株式会社 スケーラブル符号化方法および装置,スケーラブル復号方法および装置,並びにそれらのプログラムおよびその記録媒体
JP2007174634A (ja) * 2005-11-28 2007-07-05 Victor Co Of Japan Ltd 階層符号化装置、階層復号化装置、階層符号化方法、階層復号方法、階層符号化プログラム及び階層復号プログラム
KR100728921B1 (ko) 2005-12-26 2007-06-15 삼성전자주식회사 입력 영상에 적응적인 해상도변환장치 및 그의해상도변환방법
JP2009522971A (ja) * 2006-01-10 2009-06-11 ノキア コーポレイション 拡張可能ビデオ符号化のための切換型フィルタアップサンプリング機構
WO2009133844A1 (ja) * 2008-04-30 2009-11-05 株式会社 東芝 エッジを考慮したフィルタリング機能を備えた動画像符号化/復号化方法及び装置
TWI468020B (zh) 2009-02-19 2015-01-01 Sony Corp Image processing apparatus and method
US9270871B2 (en) * 2009-04-20 2016-02-23 Dolby Laboratories Licensing Corporation Optimized filter selection for reference picture processing
US9532059B2 (en) * 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
WO2013062175A1 (ko) * 2011-10-24 2013-05-02 한국항공대학교산학협력단 향상 계층에 대한 스케일러블 코딩 방법 및 장치
WO2014053518A1 (en) * 2012-10-01 2014-04-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scalable video coding using subblock-based coding of transform coefficient blocks in the enhancement layer
US20150010083A1 (en) * 2013-07-08 2015-01-08 Electronics And Telecommunications Research Institute Video decoding method and apparatus using the same

Also Published As

Publication number Publication date
JP2016538740A (ja) 2016-12-08
EP3050301A1 (en) 2016-08-03
US20190014333A1 (en) 2019-01-10
JP2018201245A (ja) 2018-12-20
KR20160058927A (ko) 2016-05-25
WO2015048176A1 (en) 2015-04-02
KR101946039B1 (ko) 2019-02-08
KR102136666B1 (ko) 2020-07-23
WO2015048176A8 (en) 2015-10-29
CN105765979B (zh) 2019-08-09
KR20190015605A (ko) 2019-02-13
US20160212436A1 (en) 2016-07-21
US10148971B2 (en) 2018-12-04
CN105765979A (zh) 2016-07-13
CN110460843A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
JP7433019B2 (ja) ビデオコーディングにおけるクロマ信号強調のためのクロスプレーンフィルタリング
JP6709823B2 (ja) ビデオ符号化のための成分間相関解除
JP6397902B2 (ja) スケーラブルビデオ符号化のためのレイヤ間予測
JP6694031B2 (ja) 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法
JP6684867B2 (ja) Rgbビデオコーディングエンハンスメントのためのシステムおよび方法
JP6421224B2 (ja) マルチレイヤビデオコーディングにおける空間レイヤのためのサンプリンググリッド情報
JP6592145B2 (ja) 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント
US10218971B2 (en) Adaptive upsampling for multi-layer video coding
TW201735641A (zh) 使用適應性濾波增強運動補償系統及方法
US20150365666A1 (en) Enhanced deblocking filters for video coding
JP2018510539A (ja) パレット符号化モードのためのエスケープカラー符号化
WO2014052602A1 (en) Method and apparatus of edge guided processing for video coding

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170809

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R150 Certificate of patent or registration of utility model

Ref document number: 6397902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250