JP2019208279A - 複数レイヤビデオ符号化のためのコーデックアーキテクチャ - Google Patents

複数レイヤビデオ符号化のためのコーデックアーキテクチャ Download PDF

Info

Publication number
JP2019208279A
JP2019208279A JP2019149152A JP2019149152A JP2019208279A JP 2019208279 A JP2019208279 A JP 2019208279A JP 2019149152 A JP2019149152 A JP 2019149152A JP 2019149152 A JP2019149152 A JP 2019149152A JP 2019208279 A JP2019208279 A JP 2019208279A
Authority
JP
Japan
Prior art keywords
picture
layer
video
ilp
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019149152A
Other languages
English (en)
Inventor
イエン イエ
Yan Ye
イエン イエ
ダブリュ.マクレラン ジョージ
George W Mcclellan
ダブリュ.マクレラン ジョージ
ホー ヨン
Yong He
ホー ヨン
シアオユー シウ
Xiaoyu Xiu
シアオユー シウ
ユーウェン ホー
yu-wen He
ユーウェン ホー
ジエ ドン
Jie Dong
ジエ ドン
バル ツァン
Can Bal
バル ツァン
ウン リュウ
Eun Ryu
ウン リュウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Publication of JP2019208279A publication Critical patent/JP2019208279A/ja
Priority to JP2021166188A priority Critical patent/JP2022023856A/ja
Priority to JP2023171301A priority patent/JP2023166011A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Error Detection And Correction (AREA)

Abstract

【課題】ビデオ符号化システム(VCS)を実装するためのシステムを提供する。【解決手段】VCSは、1または複数のレイヤ(たとえば、ベースレイヤ(BL)および/または1もしくは複数のエンハンスメントレイヤ(EL))を含むビデオ信号を受信し、たとえばピクチャレベルのレイヤ間予測プロセスを使用して、BLピクチャを処理し、レイヤ間参照(ILR)ピクチャにする。VCSは、処理されたILRピクチャまたはエンハンスメントレイヤ(EL)参照ピクチャの一方または両方を選択する。選択された(1または複数の)参照ピクチャは、EL参照ピクチャまたはILRピクチャのうちの一方を含む。VCSは、選択されたILRピクチャまたはEL参照ピクチャのうちの1または複数を使用して現在のELピクチャを予測し、処理されたILRピクチャをEL復号済みピクチャバッファ(DPB)内に記憶する。【選択図】図12

Description

本発明は、ビデオ符号化システム(VCS)を実装するためのシステムおよび方法に関し、特に複数レイヤビデオ符号化のためのコーデックアーキテクチャに関する。
(関連出願の相互参照)
本願は、2012年7月9日に出願された米国特許仮出願第61/699,356号、および2012年12月6日に出願された米国特許仮出願第61/734,264号の利益を主張し、それらの内容を参照により本明細書に組み込む。
マルチメディア技術および移動通信は、近年、大規模な成長と市場の成功を経験した。無線通信技術は、無線帯域幅を劇的に増大し、移動ユーザのためのサービス品質を改善した。たとえば、第3世代パートナーシッププロジェクト(3GPP)ロングタームエボリューション(LTE)標準は、第2世代(2G)および/または第3世代(3G)に比べてサービス品質を改善した。
無線ネットワーク上で高い帯域幅が使用可能になったので、有線ウェブ上で使用可能なビデオおよびマルチメディアコンテンツは、ユーザが異なるサイズ、品質、および/または接続性(connectivity)能力を有する多種多様な移動デバイスからそのコンテンツに対する同等のオンデマンドアクセスを望むことを余儀なくしている。
様々なビデオコンテンツをネットワーク上で使用可能にするために、1または複数のビデオ符号化および圧縮機構が使用される。ビデオ符号化システムは、デジタルビデオ信号を圧縮し、たとえばそのような信号の記憶の必要および/または送信帯域幅を削減するために使用される。1または複数のビデオ符号化標準に基づく様々なタイプのビデオ圧縮技術が使用される。これらの標準は、たとえばH.261、MPEG−1、MPEG−2、H.263、MPEG−4パート2、およびH.264/MPEG−4パート10 AVC、高効率映像符号化(HEVC)などを含む。ビデオ符号化標準の拡張、たとえばH.264(スケーラブルビデオ符号化(SVC))、および/またはスケーラブルHEVCが使用される。
空間スケーラビリティ又はアスペクト比スケーラビリティの他の例として、BLビデオのリターゲティングが実行される。リターゲティングは、2つのレイヤ間の空間スケーラビリティを確立するために使用される。例えば、リターゲティグは、ELビデオの1つのピクチャ(ただし、必ずしも全部のピクチャを必要としない)に関連付けられた1つの空間領域に対する、BLビデオの1つのピクチャ(ただし、必ずしも全部のピクチャを必要としない)に関連付けられた1つの空間領域に対応する。例えば、ELビデオが拡大スクリーンTV上に表示されるべきより高い解像度であり、および、BLビデオが限定されたスクリーン解像度を伴ったモバイルデバイス上に表示されるべきより低い解像度であるとき、BLビデオは、ELビデオの一部(例えば、ELピクチャの興味ある1つの領域)を表わす。水平スケーリングおよび/又は垂直スケーリングの量を変更することは、BL内の、例えばBLサンプルがBL領域内に位置することに依存する、空間領域に適用されることである。リターゲティングは、アスペクト比スケーラビリティに利用される。例えば、BLが4:3のアスペクト比であるときは、ELが16:9のアスペクト比である。BL領域内の主要オブジェクトジェクト(例えば、新しいアンカー)は、周囲領域がEL内で16:9のアスペクト比に整合するように水平方向にストレッチ(stretch)されるようなときでも、水平方向および垂直方向に均一(例えば、等分)スケーリングを適用することによって4:3のアスペクト比に保存される。
提供されているスケーラブル符号化機構は欠点を有しており、不十分である。
そこで、本発明では、複数レイヤビデオ符号化のための改善されたコーデックアーキテクチャを提供する。
ビデオ符号化システム(VCS)を実装するためのシステム、方法、および手段が提供される。たとえば、ベースレイヤ(BL)コーダ、エンハンスメントレイヤ(EL)コーダ、レイヤ間予測(ILP)処理、および管理ユニットなどを含むVCSが、ビデオ信号を受信するために構成される。ビデオ信号は、1または複数のレイヤ(たとえば、ベースレイヤ(BL)および/または1または複数のエンハンスメントレイヤ(EL))を含む。VCSは、たとえばピクチャレベルのレイヤ間予測プロセスを使用して、BLピクチャを処理してレイヤ間参照(ILR)ピクチャにする。処理されたILRピクチャは、非コロケーテッドILRピクチャである。
BLピクチャを処理してILRピクチャにすることは、現在のELピクチャの予測に適したフォーマットにBLピクチャをフォーマットすることを含む。このフォーマットは、BLコーデックとELコーデックの間のスケーラビリティのタイプに依存する。BLコーデックとELコーデックとの間のスケーラビリティのタイプは、空間スケーラビリティ、クロマフォーマットスケーラビリティ、品質スケーラビリティ、空間スケーラビリティ、ビュースケーラビリティ、またはビット深さスケーラビリティのうちの1または複数を含む。フォーマットすることは、アップサンプリング、ノイズ除去、復元、またはリターゲティング、視差補償、または逆トーンマッピングのうちの1または複数を含む。
VCSは、処理されたILRピクチャまたはエンハンスメントレイヤ(EL)参照ピクチャの一方または両方を選択する。選択された(1または複数の)参照ピクチャは、EL参照ピクチャまたはILRピクチャのうちの一方を含む。複数の選択された参照ピクチャは、共通の時間インスタンスに対応する。
VCSは、選択されたILRピクチャまたはEL参照ピクチャのうちの1または複数を使用して現在のELピクチャを予測する。VCSは、処理されたILRピクチャをEL復号済みピクチャバッファ内に記憶する。VCSは、BLからBL情報を抽出する。BL情報は、BLモード情報またはBL動き情報のうちの1または複数を含む。VCSは、抽出されたBL情報を含む情報に基づいてBLピクチャを処理する。VCSは、BL情報を第1のフォーマットから第2のフォーマットに変換し、変換されたBL情報をEL符号化において使用する。第1のフォーマットはBLコーデックに関し、第2のフォーマットはELコーデックに関し、第1のフォーマットは第2のフォーマットとは異なる。
VCSは、ILP情報をパケット化し、そのILP情報を、たとえばネットワーク抽象化レイヤ(NAL)ユニットを介して送る。ILP情報は、たとえば、アップサンプリングフィルタ情報、アップサンプリングのための1または複数の係数、ノイズ除去のための1または複数の係数、視差補償パラメータの1または複数、逆トーンマッピングパラメータの1または複数などを含む。
より詳細な理解を、添付の図面と共に、例として与えられている以下の説明から得ることができる。
スケーラブルビデオエンコーディングシステムの一例を示す図である。 たとえば左眼ビューおよび右眼ビューを有する立体ビデオを符号化するためにマルチビュービデオ符号化(MVC)を使用する予測構造の一例を示す図である。 2レイヤスケーラブルビデオエンコーダのアーキテクチャの一例を示す図である。 2レイヤスケーラブルビデオデコーダのアーキテクチャの一例を示す図である。 ブロックベースの単一レイヤビデオエンコーダの一例を示す図である。 ブロックベースの単一レイヤビデオデコーダの一例を示す図である。 ピクチャレベルのレイヤ間予測(ILP)サポートを有する2レイヤスケーラブルエンコーディングシステムの一例を示す図である。 ピクチャレベルのILPサポートを有する2レイヤスケーラブル復号システムの一例を示す図である。 エンハンスメントレイヤ符号化に対応した時間予測およびレイヤ間予測を有する2レイヤシステムの一例を示す図である。 ILP処理および管理ユニットの一例を示す図である。 レイヤ間動きベクトル予測を使用する例示的な予測構造の図である。 拡張ILP処理および管理ユニットを使用するスケーラブル符号化システムの一例を示す図である。 1または複数の開示されている実施形態が実装される例示的な通信システムのシステム図である。 図13Aに示されている通信システム内で使用される例示的な無線送信/受信ユニット(WTRU)のシステム図である。 図13Aに示されている通信システム内で使用される例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。 図13Aに示されている通信システム内で使用される他の例示的な無線アクセスネットワークおよび他の例示的なコアネットワークのシステム図である。 図13Aに示されている通信システム内で使用される他の例示的な無線アクセスネットワークおよび他の例示的なコアネットワークのシステム図である。
次に、例示的な実施形態の詳細な説明について、様々な図を参照して述べる。この説明は、可能な実装の詳細な例を提供するが、これらの詳細は、例示的なものであり、本願の範囲を決して限定しないものとすることに留意されたい。さらに、これらの図は流れ図を示すことがあるが、流れ図は例示的なものとする。他の実施形態が使用されることがある。メッセージの順序は、適切な場合、変わることがある。メッセージは、必要とされない場合省略されることがあり、追加のフローが追加されることがある。
スケーラブルビデオ符号化は、異種ネットワークの上で、異なる能力を有するデバイス上で動作するビデオアプリケーションについて、体験の品質を改善する。スケーラブルビデオ符号化は、最高の表現(たとえば、時間分解能、空間分解能、品質など)で一度に信号をエンコードするが、クライアントデバイス上で動作するいくつかのアプリケーションによって必要とされる特定のレートおよび表現に応じて、ビデオストリームのサブセットから復号することを可能にする。スケーラブルビデオ符号化は、非スケーラブルな解決策に比べて帯域幅および/またはストレージを節約する。国際ビデオ標準、たとえばMPEG−2ビデオ、H.263、MPEG4ビジュアル、H.264などは、スケーラビリティのモードをサポートするツールおよび/またはプロファイルを有する。
図1は、ブロックベースのハイブリッド(hybrid)スケーラブルビデオエンコーディングシステムの一例を示す図である。レイヤ1(たとえば、ベースレイヤ)によって表される空間/時間信号分解能は、入力ビデオ信号をダウンサンプリングすることによって生成される。量子化器の適切な設定(たとえば、Q1)が、ベース情報のある品質レベルに通じる。より高いレイヤ分解能レベルの1または複数(たとえば全部)の近似であるベースレイヤ再構築Y1は、たとえば後続のより高いレイヤをより効率的に符号化するために後続のレイヤをエンコーディング/復号する際に使用される。アップサンプリングユニット1010および/または1012は、レイヤ2の分解能へのベースレイヤ再構築信号のアップサンプリングを実施する。ダウンサンプリングおよびアップサンプリングは、レイヤのそれぞれ(たとえば、1、2...N)全体を通じて実施される。ダウンサンプリング比およびアップサンプリング比は、2つの所与のレイヤ間のスケーラビリティの次元に応じて異なる。
図1に示されているように、任意の所与のより高いレイヤn(2≦n≦N)について、アップサンプリングされた、より低いレイヤ信号(たとえば、レイヤn−1信号)を現在のレイヤn信号から減算することによって、差分信号が生成される。得られたこの差信号がエンコードされる。2つのレイヤ(たとえば、n1およびn2)によって表されるビデオ信号が同じ空間分解能を有する場合、対応するダウンサンプリング動作およびアップサンプリング動作がバイパスされる。任意の所与のレイヤn(1≦n≦N))または複数のレイヤが、より高いレイヤから復号された情報を使用することなしに復号される。たとえば、図1のシステムによって使用される、ベースレイヤを除くレイヤについての残差信号(たとえば、2つのレイヤ間の差信号)の符号化に依拠することは、視覚的アーチファクトを引き起こす。視覚的アーチファクトは、残差信号を量子化および正規化しそのダイナミックレンジを制限したいと望むこと、ならびに/または残差信号の符号化中に実施される追加の量子化による。より高いレイヤのエンコーダの1または複数が、エンコーディングモードとして動き推定および/または動き補償予測を採用する。残差信号における動き推定および/または動き補償は、従来の動き推定とは異なるものであり、たとえば視覚的アーチファクトをより受けやすい。より洗練された残差量子化、ならびに残差信号を量子化および正規化しそのダイナミックレンジを制限したいと望むことと、残差の符号化中に実施される追加の量子化との間の統合量子化が使用され、たとえばそのような視覚的アーチファクトを最小限に抑えるためにシステムの複雑さを増大する。図1のシステムは、他のレイヤ間予測モードを考慮せず、これは達成される圧縮効率のレベルを制限する。
スケーラブルビデオ符号化(SVC)は、部分的なビットストリームの送信および復号を可能にし、たとえば部分的なビットストリームのレートを与えられた場合、再構築品質(たとえば、より高い再構築品質)を保持しながら時間分解能もしくは空間分解能がより低い、または忠実度が低減されたビデオサービスを提供するH.264の拡張である。SVCは、SVCデコーダが復号されるレイヤで1つの動き補償ループをセットアップし、他のより低いレイヤで動き補償ループをセットアップしないシングルループ復号を含む。たとえば、ビットストリームが2つのレイヤ、すなわちレイヤ1(たとえば、ベースレイヤ)およびレイヤ2(たとえば、エンハンスメントレイヤ)を含む場合、デコーダは、復号済みピクチャバッファおよび動き補償予測を設定することによってレイヤ2ビデオを再構築する(たとえば、レイヤ1のためにではなくレイヤ2のために、すなわちレイヤ2はレイヤ1に依存する)。SVCは、より低いレイヤからの参照ピクチャが完全に再構築されることを必要とせず、これは計算量、およびデコーダで使用されるメモリを削減する。シングルループ復号は、制約されたレイヤ間テクスチャ予測によって達成される。所与のレイヤ内のブロック(たとえば、現在のブロック)について、対応する低いレイヤブロックがイントラモード(たとえば、制限されたイントラ予測)で符号化される場合、より低いレイヤからの空間テクスチャ予測が使用される。より低いレイヤブロックは、イントラモードで符号化されるとき、動き補償動作および復号済みピクチャバッファなしで再構築される。SVCは、追加のレイヤ間予測技法、たとえば動きベクトル予測、残差予測、モード予測などを使用する。SVCのシングルループ復号機能が、計算量および/またはデコーダで使用されるメモリを削減する。シングルループ復号は、十分な性能を達成するためにブロックレベルのレイヤ間予測実装に依拠するところが大きいことにより、実装の複雑さを増大する。エンコーダ設計および計算の複雑さは、たとえばシングルループ復号の制約を課すことによって受ける性能の犠牲を補償するために、所望の性能が達成されるように増大される。インターレースされたコンテンツのスケーラブルな符号化は、十分な性能でSVCによってサポートされず、これは、放送業界によるその採用に影響を及ぼす。
マルチビュービデオ符号化(MVC)は、ビュースケーラビリティを提供するH.264の例示的な拡張である。ビュースケーラビリティは、従来の2Dビデオを再構築するためにベースレイヤビットストリームが復号され、同じビデオ信号の他のビュー表現を再構築するために追加のエンハンスメントレイヤが復号されることを意味する。1または複数のビュー(たとえば、すべてのビュー)が共に組み合わされ、適正な3Dディスプレイによって表示されたとき、ユーザは、適正な奥行き知覚で3Dビデオを体験する。図2は、左眼ビュー(たとえば、レイヤ1)および右眼ビュー(たとえば、レイヤ2)を有する立体ビデオを符号化するためにMVCを使用する予測構造の一例を示す図である。図2における例によって示されているように、左眼ビュービデオは、IBBP予測構造で符号化される。右眼ビュービデオは、PBBP予測構造で符号化される。たとえば、右眼ビューでは、左眼ビューにおける第1のIピクチャ2002と共に第1のコロケーテッドピクチャが、Pピクチャ2004として符号化される。右眼ビューにおける他のピクチャのそれぞれは、たとえば右眼ビューにおける時間参照からの第1の予測、および左眼ビューにおけるレイヤ間参照からの第2の予測で、Bピクチャとして符号化される。MVCは、シングルループ復号をサポートしない。たとえば、図2に示されているように、右眼ビュー(たとえば、レイヤ2)ビデオの復号は、左眼ビュー(たとえば、レイヤ1)におけるピクチャ全体が使用可能であることを必要とし、これは、両ビュー/レイヤにおける動き補償ループをサポートする。
MVCは、高レベルのシンタックス変更を含み(たとえば、含むにすぎず)、H.264/AVCに対するブロックレベル変更を含まない。たとえば、基礎となるMVCエンコーダ/デコーダ論理が同じままであり、重複するので、スライス/ピクチャレベルでの参照ピクチャ(たとえば、参照ピクチャだけ)がMVCを可能にするように正しく構成される。MVCは、複数のビューにわたってレイヤ間予測を実施するように図2の例を拡張することによって、2つ以上のビューの符号化をサポートする。
カラー動画像データ圧縮標準規格(MPEG)フレーム互換(MFC)符号化が符号化技法として使用される。3Dコンテンツは、1または複数のビュー、たとえば左眼ビューおよび右眼ビューを含む立体3Dビデオである。立体3Dコンテンツの送達は、2つのビューを1つのフレームにパック/多重化し、パックされたビデオをコーデック(たとえば、H.264/AVC)で圧縮および送信することによって達成される。受信機側では、復号後、フレームが開けられ、2つのビューとして表示される。これらのビューは、時間領域および/または空間領域内で多重化される。ビューが空間領域内で多重化されるとき、2つのビューは、ある係数(たとえば、2倍)によって空間的にダウンサンプリングされ、たとえば同じピクチャサイズを維持するために、様々な配置によってパックされる。たとえば、ダウンサンプリングされた左眼ビューをピクチャの左半分に、ダウンサンプリングされた右眼ビューをピクチャの右半分にして、ピクチャが配置される。他の配置は、上下、ラインごと、市松模様などを含む。フレーム互換3Dビデオを達成するために使用される特定の配置は、配置SEIメッセージをパックするフレームによって搬送される。空間ダウンサンプリングは、ビュー内にエイリアシングを引き起こし、3Dビデオの視覚的品質およびユーザ体験を低減する。フレーム互換(たとえば、同じフレーム内にパックされた2つのビュー)ベースレイヤビデオに対するスケーラブルな拡張を提供すること、および/または1または複数のエンハンスメントレイヤを提供し、改善された3D体験のために完全な分解能を回復することに重点が置かれる。それは3Dビデオ送達を提供することを対象とするが、完全分解能MFCを可能にする基礎となる技術は、空間スケーラビリティ技術に関連付けられる。
HEVCのスケーラブルなエンハンスメントが提供される。標準スケーラビリティは、ベースレイヤがある標準、たとえばH.264/AVCまたはMPEG2でエンコードされ、一方、その1または複数のエンハンスメントレイヤは、別の標準、たとえばHEVC標準を使用して符号化されるときのスケーラビリティのタイプを指す。標準スケーラビリティは、以前の標準を使用してエンコードされたレガシコンテンツのための上位互換性を提供し、1または複数のエンハンスメントレイヤを有するレガシコンテンツの品質を向上する。
3Dビデオ符号化(3DV)が提供される。3DVは、自動立体アプリケーションを標的とする1または複数の異なるビュー機能を提供する。自動立体ディスプレイおよびアプリケーションは、人が面倒な眼鏡なしに3Dを体験することを可能にする。眼鏡なしに良好な3D体験を達成するために、2つ以上のビューが使用される。2つ以上のビュー(たとえば、9個のビューまたは10個のビュー)を符号化することはコストがかかる。3DVは、数個のビュー(たとえば、2つまたは3つのビュー)を共に比較的大きな視差で、および/またはビューの奥行き情報を提供する1または複数の奥行きマップで符号化するハイブリッド(hybrid)手法を使用する。これは、マルチビュープラス奥行き(MVD)と呼ばれる。ディスプレイ側では、符号化されたビューおよび奥行きマップが復号される。残りのビューは、ビュー合成技術を使用して、復号されたビューおよびそれらの奥行きマップを使用して生成される。3DVは、様々な実装を使用し、これらのビューおよび奥行きマップを符号化し、たとえば、それだけには限らないがH.264/AVC、MVC、HEVCなど異なる標準の組合せを使用してそれらを符号化する。3DVは、ある標準(たとえば、H.264/AVC)でベースレイヤを符号化し、別の標準(たとえば、HEVC)でエンハンスメントレイヤの1または複数を符号化する。
表1は、異なるタイプのスケーラビリティの一例を、それらをサポートする対応する標準と共に提供する。ビット深さスケーラビリティおよびクロマフォーマットスケーラビリティが、主に専門家用のビデオアプリケーションによって使用されるビデオフォーマット(たとえば、8ビットビデオより高いもの、およびYUV4:2:0より高いクロマサンプリングフォーマット)に結び付けられる。アスペクト比スケーラビリティが提供されてもよい。

スケーラブルビデオ符号化は、ベースレイヤビットストリームを使用してビデオパラメータの第1のセットに関連付けられた第1のレベルのビデオ品質を提供する。スケーラブルビデオ符号化は、1または複数のエンハンスメントレイヤビットストリームを使用して拡張パラメータの1または複数のセットに関連付けられた1または複数のレベルのより高い品質を提供する。ビデオパラメータのセットは、空間分解能、フレームレート、再構築されたビデオ品質(たとえば、SNR、PSNR、VQM、視覚的品質などの形態)、3D機能(たとえば、2つ以上のビューを有する)、輝度およびクロマビット深さ、クロマフォーマット、および基礎となる単一レイヤ符号化標準のうちの1または複数を含む。表1に示されているように、異なるユースケースで異なるタイプのスケーラビリティが必要とされる。本明細書で論じられているように、スケーラビリティ符号化アーキテクチャは、1または複数のスケーラビリティをサポートするように構成される共通の構造を提供する。スケーラブル符号化アーキテクチャは、最小限の構成努力で異なるスケーラビリティをサポートするように柔軟である。スケーラブル符号化アーキテクチャは、ブロックレベルの動作への変更を必要としない少なくとも1つの好ましい動作モードを含み、その結果、符号化論理(たとえば、エンコーディングおよび/または復号論理)は、スケーラブル符号化システム内で最大限に再使用される。たとえば、ピクチャレベルのレイヤ間処理および管理ユニットに基づくスケーラブル符号化アーキテクチャが提供され、この場合、レイヤ間予測がピクチャレベルで実施される。
図3は、2レイヤスケーラブルビデオエンコーダの例示的なアーキテクチャの図である。たとえば、エンハンスメントレイヤビデオ入力およびベースレイヤビデオ入力は、空間スケーラビリティを達成するダウンサンプリングプロセスによって互いに対応する。図3に示されているように、エンハンスメントレイヤビデオは、ダウンサンプラ3002を使用してダウンサンプリングされる。ベースレイヤエンコーダ3006(たとえば、この例ではHEVCエンコーダ)は、ベースレイヤビデオ入力をブロックごとにエンコードし、ベースレイヤビットストリームを生成する。図5は、図3のベースレイヤエンコーダとして使用される例示的なブロックベースの単一レイヤビデオエンコーダを示す図である。図5に示されているように、空間予測5020(たとえば、イントラ予測と呼ばれる)および/または時間予測5022(たとえば、インター予測および/または動き補償予測と呼ばれる)などの技法を使用し、効率的な圧縮を達成し、および/または入力ビデオ信号を予測する。エンコーダは、予測の最も適切な形態を選ぶモード判断論理5002を有する。エンコーダ判断論理は、レートと歪みの考慮すべき点の組合せに基づく。エンコーダは、変換ユニット5004および量子化ユニット5006を使用して、予測残差(たとえば、入力信号と予測信号との差信号)をそれぞれ変換および量子化する。量子化された残差は、モード情報(たとえば、イントラ予測またはインター予測)および予測情報(たとえば、動きベクトル、参照ピクチャインデックス、イントラ予測モードなど)と共に、エントロピーコーダ5008でさらに圧縮され、出力ビデオビットストリームにパックされる。また、エンコーダは、量子化された残差に(例えば、逆量子化ユニット5010を使用して)逆量子化および(例えば、逆変換ユニット5012を使用して)逆変換を適用し、再構築された残差を得る。エンコーダは、再構築されたビデオ信号を予測信号5014に加算する。再構築されたビデオ信号は、ループフィルタプロセス5016(たとえば、デブロッキングフィルタ、サンプル適応オフセット、および/または適応ループフィルタを使用する)を通じて、将来のビデオ信号を予測するために使用されるように参照ピクチャストア5018内に記憶される。
本明細書では、参照ピクチャストアという用語は、復号済みピクチャバッファまたはDPBという用語と交換可能に使用される。図6は、図5のエンコーダによって生成されたビデオビットストリームを受信し、表示するべきビデオ信号を再構築する例示的なブロックベースの単一レイヤデコーダのブロック図である。このビデオデコーダでは、ビットストリームは、エントロピーデコーダ6002によってパースされる。残差係数が(例えば、逆量子化ユニット6004を使用して)逆量子化および(例えば、逆変換ユニット6006を使用して)逆変換され、再構築された残差を得る。符号化モードおよび予測情報を使用し、予測信号を得る。これは、空間予測6010および/または時間予測6008を使用して達成される。予測信号と再構築された残差は共に加算され、再構築されたビデオを得る。さらに、再構築されたビデオは、ループフィルタリング(例えば、ループフィルタ6014を使用して)を通る。次いで、再構築されたビデオは、表示されるように、および/または将来のビデオ信号を復号するために使用されるように、参照ピクチャストア6012内に記憶される。
図3の例示的なスケーラブルエンコーダに示されているように、エンハンスメントレイヤでは、エンハンスメントレイヤ(EL)エンコーダ3004が、より高い空間分解能(および/またはより高い値の他のビデオパラメータ)のEL入力ビデオ信号を取る。ELエンコーダ3004は、ベースレイヤビデオエンコーダ3006と実質的に同様に、たとえば圧縮を達成するために空間予測および/または時間予測を使用して、ELビットストリームを生成する。本明細書ではレイヤ間予測(ILP)(たとえば、図3における陰影付き矢印によって示されているもの)と呼ばれる追加の形態の予測が、エンハンスメントレイヤエンコーダにおいて、その符号化性能を改善するために使用可能である。現在のエンハンスメントレイヤ内の符号化されたビデオ信号に基づいて予測信号を導出する空間予測および時間予測とは異なり、レイヤ間予測は、ベースレイヤ(および/または、スケーラブルシステム内に2つ以上のレイヤがあるとき他のより低いレイヤ)からの符号化されたビデオ信号に基づいて予測信号を導出する。少なくとも2つの形態のレイヤ間予測、すなわちピクチャレベルのILPおよびブロックレベルのILPが、スケーラブルシステム内に存在する。ピクチャレベルのILPおよびブロックレベルのILPについては本明細書で論じられている。ビットストリームマルチプレクサ(たとえば、図3におけるMUX3014)が、ベースレイヤビットストリームとエンハンスメントレイヤビットストリームを共に組み合わせ、1つのスケーラブルなビットストリームを生成する。
図4は、2レイヤスケーラブルビデオデコーダの例示的なアーキテクチャのブロック図である。図4の2レイヤスケーラブルビデオデコーダのアーキテクチャは、図3におけるスケーラブルエンコーダに対応する。たとえば、デマルチプレクサ(たとえば、DEMUX4002)は、スケーラブルなビットストリームをベースレイヤビットストリームとエンハンスメントレイヤビットストリームに分離する。ベースレイヤデコーダ4006は、ベースレイヤビットストリームを復号し、ベースレイヤビデオを再構築する。エンハンスメントレイヤデコーダ4004は、エンハンスメントレイヤビットストリームを復号する。エンハンスメントレイヤデコーダは、現在のレイヤからの情報、および/または1または複数の従属レイヤ(たとえば、ベースレイヤ)からの情報を使用してそれを行う。たとえば、1または複数の従属レイヤからのそのような情報は、レイヤ間処理を通り、レイヤ間処理は、ピクチャレベルのILPおよび/またはブロックレベルのILPが使用されるとき行われる。図3および図4に示されていないが、MUX3014でベースレイヤビットストリームおよびエンハンスメントレイヤビットストリームと共に追加のILP情報が多重化されてもよい。ILP情報は、DEMUX4002によって逆多重化される。
図7は、ピクチャレベルのILPサポートを有する例示的な2レイヤスケーラブル符号化システムである。図7におけるBLエンコーダ7006(たとえば、HEVCエンコーダ)は、それだけには限らないが図5を参照して論じたものなど、空間予測および/または時間予測の組合せを使用してBLビデオ入力を復号する。BLエンコーダは、再構築されたピクチャを記憶するためにベースレイヤDPB7010を確立し、たとえば時間動き補償予測を通じて、入力ビデオ信号の予測を実施する。エンハンスメントレイヤでは、ELエンコーダ7004は、BLエンコーダ7006と実質的に同様に動作する。ELエンコーダによる入力ELビデオの予測のための参照ピクチャを提供するエンハンスメントレイヤDPB7008は、現在のエンハンスメントレイヤからの参照ピクチャ、および/または1または複数の従属レイヤ(たとえば、図7に示されているBL DPB7010)からの参照ピクチャを含む。BL DPBからの参照ピクチャは、ELビデオを予測するために使用される前にレイヤ間予測処理および管理ユニット7012によって処理される。レイヤ間予測処理および管理ユニット7012は、それらを使用してELビデオを予測する前にBL DPB7010からのピクチャを処理する。ILP処理および管理ユニット7012は、BL DPB7010内に記憶された1または複数の参照ピクチャを処理し、エンハンスメントレイヤビデオの予測に適したフォーマットにする。ILP処理および管理ユニット7012は、処理された参照ピクチャを管理し、処理されたピクチャのどれがELエンコーダ7004によってELビデオのための予測として使用されるか適応的に判断する。
ILP処理および管理ユニットは、BL DPB内に記憶された参照ピクチャを処理し、エンハンスメントレイヤビデオの予測に適したフォーマットにする。この処理の性質は、BLとELの間のスケーラビリティのタイプに基づく。たとえば、BLビデオとELビデオが異なる空間分解能のものである場合、この処理は、BLとELの空間分解能を位置合わせするためにアップサンプリングを含む。この処理は、アップサンプリングプロセスで使用されるパラメータを搬送する。たとえば、ILP処理および管理ユニット7012は、アップサンプリングフィルタの事前定義されたセットを確立する。ILP処理および管理ユニット7012は、BL DPB内のピクチャをアップサンプリングするために事前定義されたアップサンプリングフィルタの1または複数を選び、ビットストリーム内で1または複数の対応するフィルタインデックスを送る。たとえば、デコーダは、同じアップサンプリングプロセスを実施する。ILP処理および管理ユニットは、(たとえば、ELビデオをより効果的に予測し、より好ましいレート歪み特性を生成するためにアップサンプリングされた参照が使用されるという意味で)使用するのに有利である1または複数のアップサンプリングフィルタを導出する(たとえば、適応的に導出する)。適応アップサンプリングフィルタが使用されるとき、フィルタ係数およびフィルタタップサイズがビットストリームに含まれる。
SNRまたは品質スケーラビリティの別の例では、BLビデオとELビデオは、同じ分解能を有する。BLビデオは、より粗い量子化(たとえば、より低い品質を有するより低いビットレート)で符号化され、一方、ELビデオは、より細かい分解能(たとえば、より高い品質を有するより高いビットレート)で符号化される。ILP処理および管理ユニット7012は、BL DPB7010内の参照ピクチャに対してノイズ除去および/または画像復元タイプの操作を実施する。そのようなノイズ除去または復元操作は、それだけには限らないが適応フィルタ(例えば、最小2乗またはLS技法に基づく)、サンプル適応オフセット(SAO)(例えば、HEVCによってサポートされる)、および/または、たとえば量子化ノイズを低減することを対象とする他のタイプのノイズ除去フィルタを含む。ノイズ除去または復元操作で使用される対応するパラメータは、デコーダに対してシグナリングされる。そのようなノイズ除去または復元技法は、空間スケーラビリティの場合について予測の有効性を改善するために、アップサンプリングプロセスと組み合わされる。図7に示されているように、符号化されたELビットストリーム、符号化されたBLビットストリーム、およびILP情報は、スケーラブルなHEVCビットストリームに多重化される(たとえば、MUX7014)。
ビュースケーラビリティの一例として、BLビデオとELビデオは、立体3Dビデオの2つのビューを表す。BLビデオが一方のビューを表し、ELビデオは、他方の相補的なビューを表す。ILP処理および管理ユニットは、視差補償をBL DPB内の参照ピクチャに対して適用し、それらがELビデオのための効果的な予測信号になるようにする。デコーダが同じ視差補償処理を実施するために、視差補償中に使用されたパラメータ(たとえば、アフィン変換が使用される場合、アフィン変換パラメータ、および/またはワーピングが使用される場合、ワーピングパラメータ)がビットストリーム内でシグナリングされる。
表2は、ILP処理および管理ユニットが実施する機能の例、および特定の機能が使用される対応するスケーラビリティタイプのリストを示す。

ILP処理および管理ユニットは、処理された参照ピクチャを管理し、参照ピクチャのどれがELエンコーダによって予測として使用されるか判断する(たとえば、適応的に判断する)。ILP処理および管理ユニットは、処理されたILRピクチャをいくつ、どれを現在のエンハンスメントレイヤピクチャの予測のために使用するか決定する。図9は、エンハンスメントレイヤ符号化に対応した時間予測およびレイヤ間予測を有する2レイヤシステムの一例を示す図である。時間予測については、図9における予測構造は、階層B予測と呼ばれる。ELピクチャについては、その参照ピクチャは、時間領域内の参照ピクチャ、BL内のそのコロケーテッドピクチャ、および/またはコロケーテッドBLピクチャの時間参照ピクチャの組合せである。たとえば、ピクチャEL2 900は、時間参照(たとえば、EL0 9004および/またはEL4 9008)および/またはレイヤ間参照(BL2 9010、BL0 9002、BL4 9012)から予測される。レイヤ間参照(BL2、BL0、BL4)の集まりが、EL2ピクチャ9006を予測するために使用される前にILP処理および管理ユニットによって処理される。本明細書に記載されているように、ILP処理は、BL参照ピクチャを処理し、ELに適したフォーマット(たとえば、適した空間分解能、ビット深さなど)にし、および/または、たとえばノイズ除去および/または復元をベースレイヤピクチャに対して適用することによってILP参照の予測品質を改善する。
処理されたILRピクチャは、効果的な予測信号を提供する。エンハンスメントレイヤ内のより多くの参照から選ぶことは、問題を引き起こす。たとえば、ブロックレベルでは、予測信号を得るためにどの参照ピクチャが選択されるかを示すためのシグナリングオーバーヘッドが増大する。また、参照ピクチャの広範囲のセット上の動き推定が実施されるとき、エンコーディングの複雑さが増大する。参照ピクチャの選択および管理により、複雑さの増大なしに効率的なスケーラブル符号化がもたらされる。
図10は、例示的なILP処理および管理ユニットの図である。時間インスタンス「t」では、ベースレイヤコロケーテッドピクチャBLt1054は、BL DPB1056からのその参照ピクチャBLt−1、BLt−2、およびBLt+1が処理され、ILPt、ILPt−1、ILPt−2、ILPt+1になる。時間参照ELt−1、ELt−2、およびELt+1を有するこれらのILP参照は、ILP管理ユニット1064によって調べられる。サブセットが選択されてもよい。図10の例では、選択された参照ピクチャは、非コロケーテッドレイヤ間参照ピクチャ(たとえば、ILPt+1 1070)を含む。他の例として、選択された参照ピクチャは、同じ時間インスタンスに対応する複数の参照ピクチャ(たとえば、ILPt+1 1070およびELt+1 1068)を含んでもよい。
たとえば、ILP管理ユニット1064は、現在のELピクチャELtと、時間参照およびレイヤ間参照(ELt−1、ELt−2、ELt+1、ILPt、ILPt−1、ILPt−2、ILPt+1)の組み合わされたセット内の参照の1または複数との間で動き推定(たとえば、整数画素動き推定)を実施する。ILP管理ユニット1064は、現在のピクチャと調べられる参照ピクチャの1または複数との間で動き推定歪み(例えば、2乗和誤差、平均2乗誤差、および/または絶対変換歪み和)を収集する。ILP管理ユニット1064は、事前定義された閾値より低い動き推定歪みをもたらす参照ピクチャのサブセットを選択する。ILP処理および管理ユニット1064は、参照ピクチャのサブセットを、事前定義された数の参照が選択されるまで、歪みの増大する順で選択する。ILP管理動作を実施するために、マルチパスエンコーディングが使用される。たとえば、第1のエンコーディングパスは、参照ピクチャのサブセットを選択するのに適したビデオ符号化統計を取得するために使用され、1または複数の後続のエンコーディングパスは、符号化性能が(例えば、そのレート歪み特性の点で)十分なものと考えられるまで、現在のELピクチャを符号化するために。図10に示されているように、ILP管理ユニット1064は、どの参照ピクチャを使用するか決定するとき、エンハンスメントレイヤビデオをその入力の1つとして取る。
ピクチャレベルのILPを実施することは、基礎となる低レベルのエンコーディングおよび復号論理が単一レイヤ非スケーラブルシステムで使用されるものと実質的に同じままであることを可能にする。たとえば、図7に示されているように、エンハンスメントレイヤエンコーダ(たとえば、HEVCエンコーダ)は、(たとえば、レイヤ間参照ピクチャを含むための)ピクチャまたはスライスレベルでの最小限の再構成をおそらくは例外として、ベースレイヤエンコーダ(たとえば、HEVCエンコーダ)と実質的に同じように動作する。ILP処理および管理ユニットは、スケーラブル符号化を可能にする。ILP処理および管理ユニットは、システム内の追加のブロックとして動作する。そのような特徴は、単一レイヤエンコーダおよびデコーダ設計を最大限に再使用することができ、したがって実装の複雑さを著しく低減するので、多くのアプリケーションにとって非常に望ましい。
図7におけるELエンコーダ7004は、同じレイヤ間参照を構築可能、使用可能にするように、図8におけるELデコーダ8004のためにILP処理およびILP管理中に使用される様々なパラメータをシグナリングする。本明細書ではILP情報と呼ばれるそのような情報は、スケーラブルなビットストリームの一部として送られる。図7に示されているように、ILP処理および管理ユニット7012は、ILP情報を、BLおよびELビデオの符号化されたビデオデータを含むパケットとは別々にパケット化する。ILP情報は、ILP処理および管理ユニットをスタンドアロンで実装するために、また実装の複雑さを低減するために、ビデオパケットとは別々に送られる。たとえば、HEVCおよびH.264では、ネットワーク抽象化レイヤ(NAL)ユニットがパケット化ユニットとして使用される。HEVCおよびH.264を基礎となる単一レイヤコーデックとして使用するスケーラブルシステムについては、ILP処理および管理ユニットは、ILP情報を別個のNALユニット内で送る。図7では、たとえばMUX7014は、ILP情報を担持するNALユニットをELビットストリームおよびBLビットストリームと多重化する。たとえば、図8に示されているように、DEMUXユニット8002は、BL符号化済みスライス/ピクチャ、EL符号化済みスライス/ピクチャ、およびILP情報に対応するNALユニットを含むスケーラブルなビットストリームを受信する。DEMUXユニットは、そのビットストリームを逆多重化し、BL符号化済みスライス/ピクチャに対応するNALユニットをBLデコーダに、EL符号化済みスライス/ピクチャに対応するNALユニットをELデコーダに、ILP情報に対応するNALユニットをILP処理および管理ユニットに送る。
スケーラブルビデオ符号化システムは、HEVCにおける適応パラメータセット(APS)を使用し、ILP処理および管理ユニットによって必要とされるILP情報を搬送する。APSパケットは、たとえば特定のNALユニットタイプを有する別個のNALユニットである。APS NALユニットは、単一レイヤ符号化において使用される符号化パラメータ、たとえば適応ループフィルタリング(ALF)パラメータ、および/またはデブロッキングフィルタパラメータを含む。各APS NALユニットにはaps_idが割り当てられ、このaps_idは、符号化済みスライスによってどのAPSからこれらの符号化パラメータを得るかを識別するために使用される。HEVCにおけるAPSシンタックスは、1ビットフラグのaps_extension_flagを含む。たとえば、aps_extension_flagが1に設定されているとき、追加のAPSデータが続く。本明細書で開示されているスケーラブルシステムは、ILP情報をAPS拡張の一部として搬送する。ILP情報は、ILP処理パラメータ(たとえば、空間スケーラビリティが可能である場合はアップサンプリングフィルタ、ビュースケーラビリティが可能である場合は視差補償パラメータ、ビット深さスケーラビリティが可能である場合は逆トーンマッピングなど)を含む。ILP情報は、ILP管理パラメータを含む。ILP管理パラメータは、現在のELピクチャを予測するために時間参照および/またはレイヤ間参照のサブセットを指定し、他の参照ピクチャシグナリングと組み合わされる。ILP管理パラメータはAPS拡張の一部でなくてもよく、スライスセグメントヘッダの一部としてシグナリングされてもよい。
レイヤ間処理は、再構築されたテクスチャをベースレイヤDPBから取り出し、先進のフィルタリング技法を適用し、たとえばエンハンスメントレイヤにおける符号化効率を改善するために、レイヤ間処理中にベースレイヤビットストリームからのあるモードおよび動き情報に依拠する。ILPは、BL DPBからの再構築されたテクスチャデータ以外にベースレイヤ情報を使用する。イントラモード依存方向性フィルタ(IMDDF)が提供される。たとえば、イントラ符号化ベースレイヤブロックのイントラ予測モードを使用し、ベースレイヤの再構築されたピクチャに対して、エンハンスメントレイヤ符号化中にレイヤ間予測のためにそれらを使用する前に適用すべき適切な方向性フィルタを選ぶ。動きフィールドマッピング(MFM)が提供される。ベースレイヤビットストリームからのブロック動き情報(たとえば、これは参照ピクチャインデックスおよび動きベクトルを含む)が、ILRピクチャのための「仮想」動きフィールドを形成するようにマッピングされる。マッピングされた仮想動きフィールドは、たとえばHEVCによってサポートされる時間動きベクトル予測(TMVP)を通じてエンハンスメントレイヤの動きを予測するために使用される。
ベースレイヤビットストリームからのモードおよび動き情報は、BLデコーダの特定の実装に応じて使用可能であることも又は使用可能でないこともある。たとえば、図8におけるスケーラブル復号システムがそのBLデコーダとしてHEVCのASIC実装を使用する場合、そのBLデコーダは、オープンなアプリケーションプログラミングインターフェース(API)を通じてILP処理および管理ユニットにモードおよび動き情報を提供しないことがある。先進のILP処理は、(たとえば、図8に示されている)ベースレイヤからの追加のモードおよび動き情報が使用可能でないとき、使用不能にされてもよい。
標準スケーラビリティは、BLコーデックおよびELコーデック、たとえば図7および図8のコーデックが、異なるコーデックであることを可能にする。たとえば、BLコーデックはH.264/AVC標準を使用し、ELコーデックはHEVC標準を使用する。BLコーデックとELコーデックが異なるとき、ELコーデックに有用なある情報がBLコーデック内に自動的に存在しないことがある。たとえば、HEVC標準は、DPB管理を達成するために、参照ピクチャセット(RPS)を使用する。H.264/AVC標準では、RPSに似た機能が、スライディングウィンドウDPB管理およびメモリ管理コマンドオプション(MMCO)の組合せによって提供される。ELコーデックが、たとえば本明細書に記載の実装の1または複数に従ってレイヤ間予測を実施する場合、かつBLコーデックがH.264/AVCに基づくためにRPS情報を生成しない場合、レイヤ間予測は、簡単には適用されない。場合によっては、ELコーデックに有用な1または複数のタイプの情報が、たとえばBLコーデックがELコーデックとは異なる標準を使用する場合、使用可能でないことがある。
たとえば、ベースレイヤ(BL)ビデオビットストリーム情報が、実装制約により使用可能にされない、および/または効率的なELビデオ符号化のために使用するべき適切なフォーマットでないことがある。本明細書に記載の実装は、拡張ILP処理および管理ユニットを含む。拡張ILPユニットは、追加の機能を実施し、符号化効率を改善し、および/またはスケーラブル符号化システムに最大限の設計柔軟性を提供する。
拡張ILPユニットが提供される。拡張ILPユニットは、スケーラブル符号化の効率を低下させることなしに制限(たとえば、実装制限)を克服するために使用される。拡張ILPユニットは、BL DPB内に記憶された参照ピクチャを処理し、エンハンスメントレイヤビデオの予測に適したフォーマットにする。拡張ILPユニットは、処理された参照ピクチャを管理し、および/または処理されたピクチャのどれがELエンコーダによってELビデオのための予測として使用されるか判断する(たとえば、適応的に判断する)。拡張ILPユニットは、ベースレイヤビットストリームからレイヤ間予測に使用されるモードおよび動き情報を抽出する。たとえば、拡張ILPユニットは、抽出されたモードおよび動き情報を使用し、BL DPB内に記憶された参照ピクチャを処理し、エンハンスメントレイヤビデオの予測に適したフォーマットにする。拡張ILPユニットは、ベースレイヤビットストリームからの情報を、たとえば、エンハンスメントレイヤ符号化で使用するべき適切なフォーマットに変換する。たとえば、拡張ILPユニットは、H.264/AVC BLコーデックで使用されるスライディングウィンドウDPB管理およびMMCOを、ELにおけるHEVCコーデックによって使用されるRPSに変換する。
図12は、拡張ILPユニット1202を使用するスケーラブル復号システムの一例を示す図である。図12に示されているように、拡張ILPユニット1202は、たとえば、処理、管理、抽出、または変換情報を含めて、1または複数の機能を実施する。拡張ILPユニット1202は、BL再構築済みピクチャを使用し、ビットストリームデマルチプレクサ(DEMUX)によって提供されるILP情報に従ってレイヤ間処理技法を適用し、処理されたBL再構築済みピクチャを生成する。BLデコーダ1212がレイヤ間処理に使用される情報を提供することができない(たとえば、BLデコーダ1212は再構築されたBLピクチャを提供するが、BLビットストリームのモードおよび動き情報を提供しない)場合、拡張ILPユニット1202は、その情報を(たとえば、拡張ILPユニットの抽出機能、たとえば本明細書に記載のものを介して)導出する。1または複数の処理されたBL再構築済みピクチャが、エンハンスメントレイヤ符号化のためにEL DPB1214に挿入される。
拡張ILPユニット1202は、DEMUX1216によって提供されるILP情報を使用し、1または複数の処理されたBL再構築済みピクチャのどれがEL DPB1214に挿入されるか決定する。拡張ILPユニットは、処理されたBL再構築済みピクチャの順序を決定する。BL情報は、拡張ILPユニットのための(たとえば、拡張ILPユニットの管理機能のための)適切なフォーマットでないことがある。たとえば、BL情報は、ELコーデックによって使用されるものとは異なる標準を使用してBLビットストリームが符号化される場合、適切なフォーマットでないことがある。BL情報が拡張ILPユニット1202のための適切なフォーマットでない場合、拡張ILPユニット1202は、BL情報を(たとえば、拡張ILPユニット1202の変換機能、たとえば本明細書に記載のものを介して)適切なフォーマットに再フォーマットおよび/または変換する。図5における例によって示されているように、拡張ILPユニット1202は、変換されたBL情報を使用し、適切な参照ピクチャバッファ管理を実施する。
拡張ILPユニット1202は、BL情報を抽出する。たとえば、BLビデオ情報を(たとえば、拡張ILPユニットの処理機能のために)拡張ILPユニットによって使用することができるがBLデコーダから使用可能でない場合には、拡張ILPユニットは、BLビットストリームをパースし、その情報(例えば、それだけには限らないがBLモードおよび動き情報など)を抽出する。パースされ抽出された情報は、拡張ILPユニットによって(例えば、拡張ILPユニットの処理機能によって)使用される。例えば、BLモード情報は、それだけには限らないが、ベースレイヤブロックがインター符号化されているか又はイントラ符号化されているか、イントラ符号化されたベースレイヤブロックのための方向性イントラ予測モードなどを含む。BL動き情報は、それだけには限らないが、ベースレイヤブロック区画、ベースレイヤブロック予測方向情報(例えば、ユニ予測またはバイ予測)、ベースレイヤブロック動きベクトル、ベースレイヤブロック参照ピクチャインデックスなどを含む。
拡張ILPユニットは、BL情報を変換する。たとえば、BLビデオ情報がエンハンスメントレイヤ符号化によって使用するべき適切なフォーマットでない場合には、拡張ILPユニットは、BLビデオ情報をエンハンスメントレイヤ符号化のために使用するのに適したフォーマットに再フォーマットおよび変換する。たとえば、拡張ILPユニットは、スケーラブルシステム(たとえば、図7および図8で例示されているもの)が異なるBLコーデックとELコーデックを使用するとき、BL情報を再フォーマットおよび変換する。スケーラブルシステム内でハイブリッドコーデックが使用されるとき、拡張ILPユニットは、BLコーデックからの情報をELコーデックによって使用される適切なフォーマットに変換および準備する。たとえば、H.264/AVCベースレイヤコーデックからのスライディングウィンドウおよびMMCOコマンドに基づくDPB管理情報は、エンハンスメントレイヤコーデックがHEVCを使用するときEL符号化のためのRPSに変換される。拡張ILPユニットは、任意のBLコーデックからのBL情報を、任意のエンハンスメントレイヤコーデックによって使用可能な情報に再フォーマットおよび変換する。図12に示されているように、拡張ILPユニットの出力は、たとえば、効率的なレイヤ間予測のためにEL復号済みピクチャバッファ(DPB)に挿入される処理されたBLピクチャを含む。拡張ILPユニットは、BLモードおよび動き情報、変換されたRPS情報などを出力する。
拡張ILPユニット1202は、効率的なスケーラブルビデオ符号化を達成するために使用される情報を、たとえばそのような追加の情報がベースレイヤコーデックから容易に入手可能でないとき提供する。拡張ILPユニット1202は、単一レイヤコーデック実装の使用を最大限にするように設計される。拡張ILPユニット1202は、たとえば単一レイヤコーデック実装が実施しない機能を吸収することによって、BLコーデックとELコーデックとの間のシームレスかつ効率的なインターフェースを提供する。たとえば、拡張ILPユニット1202は、ベースレイヤコーデックおよびエンハンスメントレイヤコーデックのより低いレベルの機能(たとえば、イントラ予測、インター予測、変換、量子化、逆変換、逆量子化、ループフィルタリング、ブロック再構築など)に影響を及ぼすことなしに効率的なスケーラブル符号化を可能にする。拡張ILPユニット1202は、高い符号化効率を有しおよびハイブリッドコーデックアーキテクチャ(たとえば、ベースレイヤエンコーダおよび/またはデコーダ、ならびにエンハンスメントレイヤエンコーダおよび/またはデコーダが異なるコーデックを使用する)をサポートすることができるスケーラブルシステム内で使用される。拡張ILPユニットは、実装コストを削減し、スケーラブル符号化効率を維持する。
図3および図4を参照すると、スケーラブル符号化性能をさらに改善するために、ブロックレベルILPが使用される。ブロックレベルILPは、エンハンスメントレイヤエンコーダおよびデコーダが、ベースレイヤエンコーダおよびデコーダのものとは異なる、(たとえば、追加の符号化モード、算術符号化のための追加のコンテキストなどの形態での)基礎となる論理を有することを必要とするが、ブロックレベルILPは、エンコーダがレート歪みの考慮すべき点に基づいて動作モードの広範囲のセットから選ぶことを可能にする。追加の選択項目は、より高いスケーラブル符号化性能の形態で現れる。たとえば、ビデオ符号化標準は、ブロック図が図5および図6に示されているハイブリッドブロックベースのビデオ符号化システムである。
HEVCの場合には、ビデオブロックは、予測に使用されるとき予測ユニット(PU)、符号化ユニットとして使用されるとき符号化ツリーブロック(CTB)、変換および逆変換に使用されるとき変換ユニット(TU)と呼ばれる。HEVCは、4分木(QT)に基づく区分を使用する。ベースレイヤおよびエンハンスメントレイヤビデオ信号は相関されるので、対応するブロック符号化モードおよびサイズ(それだけには限らないが、PU、TU、およびCTBを含む)が相関される。そのような相関は、エンハンスメントレイヤエンコーダおよびデコーダによって、QT分割の符号化、エンハンスメントレイヤ内のPU、TUおよびCTBモードおよび/またはサイズを改善するために使用される。これは、シグナリングオーバーヘッドを低減する。2つのレイヤ間で空間スケーラビリティが可能であるとき、まずブロックサイズ調整が適用される。例えば、ELビデオとBLビデオが2:1の空間比である(たとえば、ELビデオが各寸法において2倍大きい)場合には、ベースレイヤPU、TU、およびCTBサイズが、エンハンスメントレイヤブロックサイズを予測するために使用される前に各寸法において2倍に乗算される。ベースレイヤブロックモードおよび/またはサイズは、エンハンスメントレイヤブロックモードおよび/またはサイズを符号化するために、追加のバイナリ算術コーダのコンテキストとして使用される。ビデオ符号化システムは、ブロック(たとえば、PU、TU、またはCTB)の導出された情報(たとえば、モードおよび/またはサイズ)をピクチャレベルのレイヤ間参照ピクチャに割り当てる。ビデオ符号化デバイスは、ブロックのこれらの導出された情報を使用し、レイヤ、たとえばELレイヤでブロックを予測する。
動き補償予測が、ベースレイヤおよびエンハンスメントレイヤピクチャおよび/またはスライスについて同じ時間インスタンスtで可能であるとき、ベースレイヤからの動きベクトルを使用し、エンハンスメントレイヤ内の動きベクトルを予測する。たとえば、空間スケーラビリティが可能であるとき、ベースレイヤからの動きベクトルは、適宜スケーリングされる。たとえば、図11における例によって示されているように、BL1102における時間インスタンスtでは、水平にハッシュされたブロック1104が、動きベクトルMVa1106で、時間インスタンス(t−1)でBL参照から予測される。ELにおけるスケーリングされた水平にハッシュされたブロックは、時間インスタンス(t−1)1108でのEL参照から予測される場合、その値がR*MVaに近い動きベクトルを有し、ここでRは空間スケーリング比率である。ELにおける垂直にハッシュされたブロック1110については、対応するベースレイヤの垂直にハッシュされたブロック1112が、動きベクトルMVbで、時間インスタンス(t−2)1114から予測される。ELにおけるスケーリングされた垂直にハッシュされたブロックは、時間インスタンス(t−2)でのEL参照1116から予測される場合、その値が実質的にR*MVbに近い動きベクトルを有する。ビュースケーラビリティが可能であるとき、第1のビューを表すベースレイヤからの動きベクトルが、第2のビューを表すエンハンスメントレイヤ内の動きベクトルとそれらが最大限に相関されるように、ワーピングおよび/またはアフィン変換されてビュー視差を補償する。レイヤ間動きベクトル間のそのような強い相関を利用するために、スケーリングされたベースレイヤ動きベクトル(または、ビュースケーラビリティの場合、ワーピング/変換された動きベクトル)が、動きベクトルプレディクタとして使用され、エンハンスメントレイヤ動きベクトル符号化ビットを削減する。
ブロックレベルのレイヤ間予測は、ベースレイヤ残差からエンハンスメントレイヤ内の残差信号を予測することを含む。たとえば、残差予測は、エンハンスメントレイヤ残差エネルギー、およびそれを符号化するために必要とされるビット数をさらに低減するために、(たとえば、必要な場合、適切な寸法にアップサンプリングされた後)ベースレイヤからのブロック残差がエンハンスメントレイヤ残差から減算される場合に実施される。ブロックレベルのレイヤ間予測技法は、SVCで使用されるものと同様にしてELテクスチャ(たとえば、画素値)を符号化するために使用される。上記で論じたスケーラブルシステムでは、ピクチャレベルのILPの形態で、テクスチャ予測が提供される。
表1にリストされた異なるタイプのスケーラビリティのいずれかをサポートするように、マルチレイヤビデオ符号化のためのスケーラブルアーキテクチャ(たとえば、柔軟なスケーラブルアーキテクチャ)が再構成される。たとえば、1つの動作モードは、ピクチャレベルのILPに重点を置く。たとえば、ILP処理および管理ユニットは、ベースレイヤ参照ピクチャセットが、適切なフォーマットにありおよびエンハンスメントレイヤビデオ符号化のために正確かつ効果的な予測信号を提供するように、ベースレイヤ参照ピクチャを処理する。たとえば、ILP処理および管理ユニットは、任意の好ましいレート、歪み、および/または計算量の兼ね合いを達成するように、時間参照および処理されたレイヤ間参照の組合せからサブセットを選択する。たとえば、ILP処理および管理ユニットは、レイヤ間予測動作がベースレイヤおよびエンハンスメントレイヤのエンコーダおよびデコーダ動作との最小限の干渉で実施されるように、ILP情報を別個のNALユニットにパケット化する。ピクチャレベルのILPを含むことは、スケーラブルシステムが、ベースレイヤおよびエンハンスメントレイヤで単一レイヤエンコーダおよびデコーダ論理を最大限に再使用することを可能にすることによって、実装の複雑さを低減する。
図13Aは、1または複数の開示されている実施形態が実装される例示的な通信システム100の図である。通信システム100は、音声、データ、映像、メッセージング、ブロードキャストなど、コンテンツを複数の無線ユーザに提供する多元接続システムである。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共用を通じてそのようなコンテンツにアクセスすることを可能にする。たとえば、通信システム100は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC−FDMA)など、1または複数のチャネルアクセス方法を使用する。
図13Aに示されているように、通信システム100は、無線送信/受信ユニット(WTRU)102a、102b、102c、および/または102d(これらは、全体的に、またはまとめてWTRU102と呼ばれる)、無線アクセスネットワーク(RAN)103/104/105、コアネットワーク106/107/109、公衆交換電話網(PSTN)108、インターネット110、および他のネットワーク112を含むが、開示されている実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図していることが理解される。WTRU102a、102b、102c、102dのそれぞれは、無線環境で動作および/または通信するように構成された任意のタイプのデバイスである。たとえば、WTRU102a、102b、102c、102dは、無線信号を送信および/または受信するように構成され、無線送信/受信ユニット(WTRU)、移動局、固定型もしくは移動型加入者ユニット、ページャ、セルラ電話、携帯情報端末(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、家電などを含む。
また、通信システム100は、基地局114aおよび基地局114bを含む。基地局114a、114bのそれぞれは、WTRU102a、102b、102c、102dの少なくとも1つと無線でインターフェースし、コアネットワーク106/107/109、インターネット110、および/またはネットワーク112など、1または複数の通信ネットワークへのアクセスを容易にするように構成された任意のタイプのデバイスである。たとえば、基地局114a、114bは、ベーストランシーバ基地局(BTS)、ノードB、高度化ノードB(eNodeB)、ホームノードB、ホーム高度化ノードB、サイトコントローラ、アクセスポイント(AP)、無線ルータなどである。基地局114a、114bは、それぞれが単一の要素として示されているが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含むことが理解される。
基地局114aは、RAN103/104/105の一部であり、RAN103/104/105もまた、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなど、他の基地局および/またはネットワーク要素(図示せず)を含む。基地局114aおよび/または基地局114bは、セル(図示せず)と呼ばれる特定の地理的領域内で無線信号を送信および/または受信するように構成される。さらに、セルは、セルセクタに分割される。たとえば、基地局114aに関連付けられたセルは、3つのセクタに分割される。したがって、一実施形態では、基地局114aは、3つ、すなわちセルの各セクタごとに1つ、トランシーバを含む。他の実施形態では、基地局114aは、多重入力多重出力(MIMO)技術を使用し、したがって、セルの各セクタについて複数のトランシーバを使用する。
基地局114a、114bは、任意の好適な無線通信リンク(たとえば、無線周波数(RF)、マイクロ波、赤外(IR)、紫外(UV)、可視光など)であるエアインターフェース115/116/117上でWTRU102a、102b、102c、102dの1または複数と通信する。エアインターフェース115/116/117は、任意の好適な無線アクセス技術(RAT)を使用して確立される。
より具体的には、上記で指摘したように、通信システム100は、多元接続システムであり、CDMA、TDMA、FDMA、OFDMA、SC−FDMAなど、1または複数のチャネルアクセス方式を使用する。たとえば、RAN103/104/105内の基地局114a、およびWTRU102a、102b、102cは、広帯域CDMA(WCDMA(登録商標))を使用してエアインターフェース115/116/117を確立するユニバーサル移動体通信システム(UMTS)地上波無線アクセス(UTRA)など無線技術を実装する。WCDMAは、高速パケットアクセス(HSPA)および/または発展型HSPA(HSPA+)など、通信プロトコルを含む。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含む。
一実施形態では、基地局114aおよびWTRU102a、102b、102cは、ロングタームエボリューション(LTE)および/または拡張LTE(LTE−A)を使用してエアインターフェース115/116/117を確立する拡張UMTS地上波無線アクセスネットワーク(E−UTRAN)など無線技術を実装する。
一実施形態では、基地局114a、およびWTRU102a、102b、102cは、IEEE802.16(すなわち、WiMAX(Worldwide Interoperability for Microwave Access))、CDMA2000、CDMA2000 1X、CDMA2000EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、グローバル移動体通信システム(GSM(登録商標))、GSMエボリューション用の拡張データ転送速度(EDGE)、GSM EDGE(GERAN)など、無線技術を実装する。
図13Aにおける基地局114bは、たとえば、無線ルータ、ホームノードB、ホーム高度化ノードB、またはアクセスポイントであり、および事業所、自宅、乗物、キャンパスなど、局所的な領域での無線コネクティビティを容易にするための任意の好適なRATを使用する。一実施形態では、基地局114b、およびWTRU102c、102dは、無線ローカルエリアネットワーク(WLAN)を確立するために、IEEE802.11など無線技術を実装する。一実施形態では、基地局114b、およびWTRU102c、102dは、無線パーソナルエリアネットワーク(WPAN)を確立するために、IEEE802.15など無線技術を実装する。さらに一実施形態では、基地局114b、およびWTRU102c、102dは、ピコセルまたはフェムトセルを確立するために、セルラベースのRAT(たとえば、WCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を使用する。図13Aに示されているように、基地局114bは、インターネット110に対する直接接続を有する。したがって、基地局114bは、コアネットワーク106/107/109を介してインターネット110にアクセスすることが必要でない。
RAN103/104/105は、コアネットワーク106/107/109と通信し、コアネットワーク106/107/109は、音声、データ、アプリケーション、および/またはボイスオーバーインターネットプロトコル(VoIP)サービスを、WTRU102a、102b、102c、102dの1または複数に提供するように構成された任意のタイプのネットワークである。たとえば、コアネットワーク106/107/109は、呼制御、支払い請求サービス、移動体位置をベースとするサービス、プリペイド呼、インターネットコネクティビティ、映像配信などを提供することができ、および/またはユーザ認証などハイレベルセキュリティ機能を実施する。図13Aには示されていないが、RAN103/104/105および/またはコアネットワーク106/107/109は、RAN103/104/105と同じRATまたは異なるRATを使用する他のRANと直接または間接的に通信することを理解されたい。たとえば、E−UTRA無線技術を使用しているRAN103/104/105に接続されることに加えて、コアネットワーク106/107/109はまたGSM無線技術を使用するRAN(図示せず)と通信する。
また、コアネットワーク106/107/109は、WTRU102a、102b、102c、102dがPSTN108、インターネット110、および/または他のネットワーク112にアクセスするためのゲートウェイとして働く。PSTN108は、基本電話サービス(POTS)を提供する回線交換電話網を含む。インターネット110は、TCP/IPインターネットプロトコルスイートにおける伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、インターネットプロトコル(IP)など、一般的な通信プロトコルを使用する相互接続されたコンピュータネットワークおよびデバイスのグローバルシステムを含む。ネットワーク112は、他のサービスプロバイダによって所有および/または運営される有線もしくは無線通信ネットワークを含む。たとえば、ネットワーク112は、RAN103/104/105と同じRATまたは異なるRATを使用する、1または複数のRANに接続されたコアネットワークを含む。
通信システム100におけるWTRU102a、102b、102c、102dの一部または全部がマルチモード機能を含む。すなわち、WTRU102a、102b、102c、102dは、異なる無線リンク上で異なる無線ネットワークと通信するために複数のトランシーバを含む。たとえば、図13Aに示されているWTRU102cは、セルラベースの無線技術を使用する基地局114a、およびIEEE802無線技術を使用する基地局114bと通信するように構成される。
図13Bは、例示的なWTRU102のシステム図である。図13Bに示されているように、WTRU102は、プロセッサ118、トランシーバ120、送信/受信エレメント122、スピーカ/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、非取外し式メモリ130、取外し式メモリ132、電源134、全世界測位システム(GPS)チップセット136、および他の周辺機器138を含む。WTRU102は、一実施形態と一貫したまま前述の要素の任意のサブコンビネーションを含むことが理解される。また、実施形態は、基地局114a、114b、および/または、それだけには限らないがとりわけトランシーバ基地局(BTS)、ノードB、サイトコントローラ、アクセスポイント(AP)、ホームノードB、高度化ホームノードB(高度化ノードB)、ホーム高度化ノードB(HeNB)、ホーム高度化ノードBゲートウェイ、およびプロキシノードなど、基地局114a、114bが表すノードが、図13Bに示され本明細書に記載されている要素の一部またはそれぞれを含むことを企図する。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来のプロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアに関連付けられた1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他のタイプの集積回路(IC)、状態機械などである。プロセッサ118は、信号符号化、データ処理、電力制御、入力/出力処理、および/またはWTRU102が無線環境で動作することを可能にする任意の他の機能を実施する。プロセッサ118はトランシーバ120に結合され、トランシーバ120は送信/受信エレメント122に結合される。図13Bは、プロセッサ118とトランシーバ120を別個の構成要素として示しているが、プロセッサ118とトランシーバ120は電子パッケージまたはチップ内で共に集積されてもよいことが理解される。
送信/受信エレメント122は、エアインターフェース115/116/117上で基地局(たとえば、基地局114a)に信号を送信する、または基地局から信号を受信するように構成される。たとえば、一実施形態では、送信/受信エレメント122は、RF信号を送信および/または受信するように構成されたアンテナである。一実施形態では、送信/受信エレメント122は、たとえばIR信号、UV信号、または可視光信号を送信および/または受信するように構成されたエミッタ/ディテクタである。さらに一実施形態では、送信/受信エレメント122は、RF信号と光信号を共に送信および受信するように構成される。送信/受信エレメント122は、任意の組合せの無線信号を送信および/または受信するように構成されることを理解されたい。
さらに、送信/受信エレメント122は、図13Bに単一のエレメントとして示されているが、WTRU102は、任意の数の送信/受信エレメント122を含む。より具体的には、WTRU102は、MIMO技術を使用する。したがって、一実施形態では、WTRU102は、エアインターフェース115/116/117上で無線信号を送信および受信するために2つ以上の送信/受信エレメント122(たとえば、複数のアンテナ)を含む。
トランシーバ120は、送信/受信エレメント122によって送信しようとする信号を変調するように、また送信/受信エレメント122によって受信される信号を復調するように構成される。上記で指摘したように、WTRU102は、マルチモード機能を有する。したがって、トランシーバ120は、たとえばUTRAおよびIEEE802.11など複数のRATを介してWTRU102が通信することを可能にするために複数のトランシーバを含む。
WTRU102のプロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(たとえば、液晶ディスプレイ(LCD)ディスプレイユニット、または有機発光ダイオード(OLED)ディスプレイユニット)に結合され、およびそれらからユーザ入力データを受け取る。また、プロセッサ118は、ユーザデータをスピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128に出力する。さらに、プロセッサ118は、非取外し式メモリ130および/または取外し式メモリ132など、任意のタイプの好適なメモリからの情報にアクセスし、それらにデータを記憶させる。非取外し式メモリ130は、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、ハードディスク、または任意の他のタイプのメモリ記憶装置を含む。取外し式メモリ132は、加入者識別モジュール(SIM)カード、メモリスティック、セキュアデジタル(SD)メモリカードなどを含む。一実施形態では、プロセッサ118は、サーバ上または家庭用コンピュータ(図示せず)上など、物理的にWTRU102上に位置しないメモリからの情報にアクセスし、それらにデータを記憶させる。
プロセッサ118は、電源134から電力を受け取り、WTRU102内の他の構成要素に電力を分配し、かつ/またはその電力を制御するように構成される。電源134は、WTRU102に給電するための任意の好適なデバイスである。たとえば、電源134は、1または複数の乾電池(たとえば、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li−ion)など)、太陽電池、燃料電池などを含む。
また、プロセッサ118は、WTRU102の現在位置に関する位置情報(たとえば、経度および緯度)を提供するように構成されるGPSチップセット136に結合される。GPSチップセット136からの情報に加えて、またはその代わりに、WTRU102は、エアインターフェース115/116/117の上で基地局(たとえば、基地局114a、114b)から位置情報を受信し、かつ/または近くの2つ以上の基地局から受信される信号のタイミングに基づいてその位置を決定する。WTRU102は、一実施形態と一貫したまま任意の好適な位置決定方法により位置情報を獲得することを理解されたい。
さらに、プロセッサ118は他の周辺機器138に結合され、それらの周辺機器138は、追加の特徴、機能、および/または有線もしくは無線コネクティビティを提供する1または複数のソフトウェアおよび/またはハードウェアモジュールを含む。たとえば、周辺機器138は、加速度計、電子コンパス、衛星トランシーバ、デジタルカメラ(写真またはビデオ用)、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビトランシーバ、ハンドフリー用ヘッドセット、ブルーツース(Bluetooth(登録商標))モジュール、周波数変換(FM)無線ユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザなどを含む。
図13Cは、一実施形態によるRAN103およびコアネットワーク106のシステム図である。上記で指摘したように、RAN103は、UTRA無線技術を使用し、エアインターフェース115上でWTRU102a、102b、102cと通信する。また、RAN103は、コアネットワーク106と通信する。図13Cに示されているように、RAN103はノードB140a、140b、140cを含み、ノードB140a、140b、140cは、それぞれが、エアインターフェース115上でWTRU102a、102b、102cと通信するために1または複数のトランシーバを含む。ノードB140a、140b、140cは、それぞれがRAN103内の特定のセル(図示せず)に関連付けられる。また、RAN103は、RNC142a、142bを含む。RAN103は、一実施形態と一貫したまま任意の数のノードBおよびRNCを含むことを理解されたい。
図1Cに示されているように、ノードB140a、140bは、RNC142aと通信する。さらに、ノードB140cは、RNC142bと通信する。ノードB140a、140b、140cは、Iubインターフェースを介して、それぞれのRNC142a、142bと通信する。RNC142a、142bは、Iurインターフェースを介して互いに通信する。RNC142a、142bのそれぞれは、接続されているそれぞれのノードB140a、140b、140cを制御するように構成される。さらに、RNC142a、142bのそれぞれは、外部ループ電力制御、負荷制御、許可制御、パケットスケジューリング、ハンドオーバ制御、マクロダイバシティ、セキュリティ機能、データ暗号化など、他の機能を実施する、またはサポートするように構成される。
図13Cに示されているコアネットワーク106は、メディアゲートウェイ(MGW)144、移動交換センタ(MSC)146、サービングGPRSサポートノード(SGSN)148、および/またはゲートウェイGPRSサポートノード(GGSN)150を含む。前述の要素のそれぞれはコアネットワーク106の一部として示されているが、これらの要素のいずれか1つがコアネットワークオペレータ以外のエンティティ(entity)によって所有および/または運営されてもよいことを理解されたい。
RAN103内のRNC142aは、IuCSインターフェースを介してコアネットワーク106内のMSC146に接続される。MSC146は、MGW144に接続される。MSC146およびMGW144は、WTRU102a、102b、102cにPSTN108など回線交換ネットワークに対するアクセスを提供し、WTRU102a、102b、102cと従来の陸線通信デバイスとの間の通信を容易にする。
また、RAN103内のRNC142aは、IuPSインターフェースを介してコアネットワーク106内のSGSN148に接続される。SGSN148は、GGSN150に接続される。SGSN148およびGGSN150は、WTRU102a、102b、102cにインターネット110などパケット交換ネットワークに対するアクセスを提供し、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にする。
上記で指摘したように、コアネットワーク106はまた、他のサービスプロバイダによって所有および/または運営される他の有線もしくは無線ネットワークを含むネットワーク112に接続される。
図13Dは、一実施形態によるRAN104およびコアネットワーク107のシステム図である。上記で指摘したように、RAN104は、E−UTRA無線技術を使用し、エアインターフェース116上でWTRU102a、102b、102cと通信する。また、RAN104は、コアネットワーク107と通信する。
RAN104は高度化ノードB160a、160b、160cを含むが、RAN104は、一実施形態と一貫したまま任意の数の高度化ノードBを含むことを理解されたい。高度化ノードB160a、160b、160cは、それぞれが、エアインターフェース116上でWTRU102a、102b、102cと通信するために1または複数のトランシーバを含む。一実施形態では、高度化ノードB160a、160b、160cは、MIMO技術を実装する。したがって、たとえば高度化ノードB160aは、複数のアンテナを使用し、WTRU102aに無線信号を送信し、WTRU102aから無線信号を受信することができる。
高度化ノードB160a、160b、160cのそれぞれは、特定のセル(図示せず)に関連付けられ、無線リソース管理判断、ハンドオーバ判断、アップリンクおよび/またはダウンリンクにおけるユーザのスケジューリングなどを処理するように構成される。図13Dに示されているように、高度化ノードB160a、160b、160cは、X2インターフェースの上で互いに通信する。
図13Dに示されているコアネットワーク107は、無線通信移動管理装置(MME)162、サービングゲートウェイ164、およびパケットデータネットワーク(PDN)ゲートウェイ166を含む。前述の要素のそれぞれはコアネットワーク107の一部として示されているが、これらの要素のいずれか1つがコアネットワークオペレータ以外のエンティティによって所有および/または運営されてもよいことを理解されたい。
MME162は、S1インターフェースを介してRAN104内の高度化ノードB160a、160b、160cのそれぞれに接続され、制御ノードとして働く。たとえば、MME162は、WTRU102a、102b、102cのユーザを認証すること、ベアラの活動化/非活動化、WTRU102a、102b、102cの最初のアタッチ中に特定のサービングゲートウェイを選択することなどの責任を担う。また、MME162は、RAN104と、GSMまたはWCDMAなど他の無線技術を使用する他のRAN(図示せず)との間で切り替えるための制御プレーン機能を提供する。
サービングゲートウェイ164は、S1インターフェースを介してRAN104内の高度化ノードB160a、160b、160cのそれぞれに接続される。サービングゲートウェイ164は、一般に、ユーザデータパケットをWTRU102a、102b、102cに/WTRU102a、102b、102cからルーティングおよび転送する。また、サービングゲートウェイ164は、高度化ノードB間ハンドオーバ中にユーザプレーンをアンカリングすること、WTRU102a、102b、102cにダウンリンクデータが使用可能であるときページングをトリガすること、およびWTRU102a、102b、102cのコンテキストを管理および記憶することなど、他の機能を実施する。
また、サービングゲートウェイ164はPDNゲートウェイ166に接続され、PDNゲートウェイ166はWTRU102a、102b、102cにインターネット110などパケット交換ネットワークに対するアクセスを提供し、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にする。
コアネットワーク107は、他のネットワークとの通信を容易にする。たとえば、コアネットワーク107は、WTRU102a、102b、102cにPSTN108など回線交換ネットワークに対するアクセスを提供し、WTRU102a、102b、102cと従来の陸線通信デバイスとの間の通信を容易にする。たとえば、コアネットワーク107は、コアネットワーク107とPSTN108との間のインターフェースとして働くIPゲートウェイ(たとえば、IPマルチメディアサブシステム(IMS)サーバ)を含み、またはIPゲートウェイと通信する。さらに、コアネットワーク107は、他のサービスプロバイダによって所有および/または運営される他の有線もしくは無線ネットワークを含むネットワーク112に対するアクセスを、WTRU102a、102b、102cに提供する。
図13Eは、一実施形態によるRAN105およびコアネットワーク109のシステム図である。RAN105は、エアインターフェース117上でWTRU102a、102b、102cと通信するためにIEEE802.16無線技術を使用するアクセスサービスネットワーク(ASN)である。下記でさらに論じるように、WTRU102a、102b、102c、RAN105、およびコアネットワーク109の異なる機能エンティティ間の通信リンクが、参照ポイントとして定義される。
図13Eに示されているように、RAN105は、基地局180a、180b、180c、およびASNゲートウェイ182を含むが、RAN105は、一実施形態と一貫したまま任意の数のノードBおよびRNCを含むことが理解される。基地局180a、180b、180cは、それぞれがRAN105内の特定のセル(図示せず)に関連付けられ、それぞれが、エアインターフェース117上でWTRU102a、102b、102cと通信するために1つまたは複数のトランシーバを含む。一実施形態では、基地局180a、180b、180cは、MIMO技術を実装する。したがって、たとえば基地局180aは、複数のアンテナを使用し、WTRU102aに無線信号を送信し、WTRU102aから無線信号を受信することができる。また、基地局180a、180b、180cは、ハンドオフのトリガ、トンネル確立、無線リソース管理、トラフィック分類、サービス品質(QoS)ポリシ施行など、移動管理機能を提供する。ASNゲートウェイ182は、トラフィック集約ポイントとして働き、ページング、加入者プロファイルのキャッシング、コアネットワーク109へのルーティングなどの責任を担う。
WTRU102a、102b、102cとRAN105との間のエアインターフェース117は、IEEE802.16仕様を実装するR1参照ポイントとして定義される。さらに、WTRU102a、102b、102cのそれぞれは、コアネットワーク109との論理インターフェース(図示せず)を確立する。WTRU102a、102b、102cとコアネットワーク109との間の論理インターフェースは、R2参照ポイントとして定義され、認証、許可、IPホスト構成管理、および/または移動管理のために使用される。
基地局180a、180b、180cのそれぞれの間の通信リンクは、WTRUハンドオーバおよび基地局間のデータの転送を容易にするためのプロトコルを含むR8参照ポイントとして定義される。基地局180a、180b、180cとASNゲートウェイ182との間の通信リンクは、R6参照ポイントとして定義される。R6参照ポイントは、WTRU102a、102b、102cのそれぞれに関連する移動イベントに基づいて移動管理を容易にするためのプロトコルを含む。
図13Eに示されているように、RAN105は、コアネットワーク109に接続される。RAN105とコアネットワーク109との間の通信リンクは、たとえばデータ転送および移動管理機能を容易にするためのプロトコルを含むR3参照ポイントとして定義される。コアネットワーク109は、移動IPホームエージェント(MIP−HA)184と、認証、許可、アカウンティング(AAA)サーバ186と、ゲートウェイ188とを含む。前述の要素のそれぞれはコアネットワーク109の一部として示されているが、これらの要素のいずれか1つがコアネットワークオペレータ以外のエンティティによって所有および/または運営されてもよいことが理解される。
MIP−HAは、IPアドレス管理の責任を担い、WTRU102a、102b、102cが、異なるASNおよび/または異なるコアネットワーク間でローミングすることを可能にする。MIP−HA184は、WTRU102a、102b、102cにインターネット110などパケット交換ネットワークに対するアクセスを提供し、WTRU102a、102b、102cとIP対応デバイスとの間の通信を容易にする。AAAサーバ186は、ユーザ認証についてのおよびユーザサービスをサポートすることについての、責任を担う。ゲートウェイ188は、他のネットワークとの網間接続を容易にする。たとえば、ゲートウェイ188は、WTRU102a、102b、102cにPSTN108など回線交換ネットワークに対するアクセスを提供し、WTRU102a、102b、102cと従来の陸線通信デバイスとの間の通信を容易にする。さらに、ゲートウェイ188は、他のサービスプロバイダによって所有および/または運営される他の有線もしくは無線ネットワークを含むネットワーク112に対するアクセスを、WTRU102a、102b、102cに提供する。
図13Eには示されていないが、RAN105は他のASNに接続され、コアネットワーク109は他のコアネットワークに接続されることが理解される。RAN105と他のASNとの間の通信リンクは、RAN105と他のASNとの間でのWTRU102a、102b、102cの移動を調整するためのプロトコルを含むR4参照ポイントとして定義される。コアネットワーク109と他のコアネットワークとの間の通信リンクは、ホームコアネットワークと訪問を受けるコアネットワークとの間の網間接続を容易にするためのプロトコルを含むR5参照ポイントとして定義される。
各特徴および要素は、単独でまたは他の特徴および要素との任意の組合せで使用することができることを、当業者なら理解できる。さらに、本明細書に記載の方法は、コンピュータまたはプロセッサによって実行するためのコンピュータ可読媒体内に組み込まれるコンピュータプログラム、ソフトウェア、またはファームウェアで実施することができる。コンピュータ可読媒体の例は、(有線接続または無線接続上で伝送される)電子信号、およびコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、それだけには限らないが、読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内部ハードディスクや取外し式ディスクなど磁気媒体、光−磁気媒体、CD−ROMディスクなどの光媒体、およびデジタル多目的ディスク(DVD)を含む。ソフトウェアと関連付けられたプロセッサを使用し、WTRU、端末、基地局、RNC、または任意のホストコンピュータで使用するために、無線周波数トランシーバを実装する。
2レイヤスケーラブルシステムを使用して述べたが、当業者なら、本明細書で論じたアーキテクチャをマルチレイヤスケーラブルビデオ符号化システムに拡張する。さらに、HEVCがしばしば典型的な単一レイヤコーデックとして使用されたが、本システムは、下にある単一レイヤビデオコーデックそれ自体にほとんど依存せず、任意の他の単一レイヤコーデックと組み合わされてもよい。各特徴および要素は、単独で、または他の特徴および要素との任意の組合せで使用することができることを、当業者なら理解できる。
本明細書に記載の方法は、コンピュータまたはプロセッサによって実行するためのコンピュータ可読媒体内に組み込まれるコンピュータプログラム、ソフトウェア、またはファームウェアで実施することができる。コンピュータ可読媒体の例は、(有線接続または無線接続上で伝送される)電子信号、およびコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、それだけには限らないが、読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内部ハードディスクや取外し式ディスクなど磁気媒体、光−磁気媒体、CD−ROMディスクなどの光媒体、およびデジタル多目的ディスク(DVD)を含む。ソフトウェアと関連付けられたプロセッサを使用し、WTRU、端末、基地局、RNC、または任意のホストコンピュータで使用するために、無線周波数トランシーバを実装する。

Claims (1)

  1. ベースレイヤ(BL)およびエンハンスメントレイヤ(EL)を含むビデオ信号を受信するステップと、
    前記ビデオ信号に基づいて、前記ELを前記BLに関連付ける第1のスケーラビリティタイプおよび前記ELを前記BLに関連付ける第2のスケーラビリティタイプを決定するステップと、
    前記BLからBLピクチャを再構築するステップと、
    前記第1のスケーラビリティタイプに基づいて、前記再構築されたBLピクチャをレイヤ間参照(ILR)ピクチャに処理するための第1のピクチャレベルのレイヤ間プロセスを決定するステップと、
    前記第2のスケーラビリティタイプに基づいて、前記再構築されたBLピクチャを前記ILRピクチャに処理するための第2のピクチャレベルのレイヤ間プロセスを決定するステップと、
    前記再構築されたBLピクチャ上で前記決定された第1のピクチャレベルのレイヤ間プロセスおよび前記決定された第2のピクチャレベルのレイヤ間プロセスを実行して、前記ILRピクチャを生成するステップと、
    現在のELピクチャに関連付けられた参照ピクチャのセットが参照ELピクチャおよび前記ILRピクチャを含むという決定に応答して、前記ILRピクチャおよび前記参照ELピクチャを使用して前記現在のELピクチャを予測するステップと、
    を備えるビデオ符号化方法。
JP2019149152A 2012-07-09 2019-08-15 複数レイヤビデオ符号化のためのコーデックアーキテクチャ Pending JP2019208279A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021166188A JP2022023856A (ja) 2012-07-09 2021-10-08 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP2023171301A JP2023166011A (ja) 2012-07-09 2023-10-02 複数レイヤビデオ符号化のためのコーデックアーキテクチャ

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261669356P 2012-07-09 2012-07-09
US61/669,356 2012-07-09
US201261734264P 2012-12-06 2012-12-06
US61/734,264 2012-12-06

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017156630A Division JP6574223B2 (ja) 2012-07-09 2017-08-14 複数レイヤビデオ符号化のためのコーデックアーキテクチャ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021166188A Division JP2022023856A (ja) 2012-07-09 2021-10-08 複数レイヤビデオ符号化のためのコーデックアーキテクチャ

Publications (1)

Publication Number Publication Date
JP2019208279A true JP2019208279A (ja) 2019-12-05

Family

ID=48833069

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2015521710A Pending JP2015523815A (ja) 2012-07-09 2013-07-09 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP2017156630A Active JP6574223B2 (ja) 2012-07-09 2017-08-14 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP2019149152A Pending JP2019208279A (ja) 2012-07-09 2019-08-15 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP2021166188A Pending JP2022023856A (ja) 2012-07-09 2021-10-08 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP2023171301A Pending JP2023166011A (ja) 2012-07-09 2023-10-02 複数レイヤビデオ符号化のためのコーデックアーキテクチャ

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2015521710A Pending JP2015523815A (ja) 2012-07-09 2013-07-09 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP2017156630A Active JP6574223B2 (ja) 2012-07-09 2017-08-14 複数レイヤビデオ符号化のためのコーデックアーキテクチャ

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021166188A Pending JP2022023856A (ja) 2012-07-09 2021-10-08 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP2023171301A Pending JP2023166011A (ja) 2012-07-09 2023-10-02 複数レイヤビデオ符号化のためのコーデックアーキテクチャ

Country Status (17)

Country Link
US (4) US9998764B2 (ja)
EP (2) EP2870757A1 (ja)
JP (5) JP2015523815A (ja)
KR (4) KR20180112099A (ja)
CN (2) CN110035286B (ja)
AU (2) AU2013288832B2 (ja)
BR (1) BR112015000480B1 (ja)
CA (1) CA2878807C (ja)
HK (1) HK1204515A1 (ja)
IL (1) IL236629A0 (ja)
IN (1) IN2015DN00191A (ja)
MX (2) MX361767B (ja)
MY (1) MY172999A (ja)
RU (1) RU2616549C2 (ja)
SG (2) SG11201500129UA (ja)
TW (2) TWI606716B (ja)
WO (1) WO2014011595A1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2873487A1 (en) * 2012-05-14 2013-11-21 Luca Rossato Decomposition of residual data during signal encoding, decoding and reconstruction in a tiered hierarchy
EP2870757A1 (en) * 2012-07-09 2015-05-13 VID SCALE, Inc. Codec architecture for multiple layer video coding
US20140085415A1 (en) * 2012-09-27 2014-03-27 Nokia Corporation Method and apparatus for video coding
KR20150038249A (ko) * 2012-09-28 2015-04-08 인텔 코포레이션 계층간 화소 샘플 예측
US9936215B2 (en) 2012-10-04 2018-04-03 Vid Scale, Inc. Reference picture set mapping for standard scalable video coding
US20140192881A1 (en) * 2013-01-07 2014-07-10 Sony Corporation Video processing system with temporal prediction mechanism and method of operation thereof
US10321130B2 (en) 2013-01-07 2019-06-11 Vid Scale, Inc. Enhanced deblocking filters for video coding
US10034008B2 (en) * 2013-03-06 2018-07-24 Samsung Electronics Co., Ltd. Method and apparatus for scalable video encoding using switchable de-noising filtering, and method and apparatus for scalable video decoding using switchable de-noising filtering
US9324161B2 (en) * 2013-03-13 2016-04-26 Disney Enterprises, Inc. Content-aware image compression method
US9800884B2 (en) * 2013-03-15 2017-10-24 Qualcomm Incorporated Device and method for scalable coding of video information
EP3410715A1 (en) 2013-04-05 2018-12-05 Vid Scale, Inc. Inter-layer reference picture enhancement for multiple layer video coding
US11438609B2 (en) * 2013-04-08 2022-09-06 Qualcomm Incorporated Inter-layer picture signaling and related processes
MX354337B (es) 2013-04-15 2018-02-27 Rossato Luca Codificación y decodificación de señal compatible con versiones anteriores híbrida.
US10284840B2 (en) * 2013-06-28 2019-05-07 Electronics And Telecommunications Research Institute Apparatus and method for reproducing 3D image
US10212437B2 (en) * 2013-07-18 2019-02-19 Qualcomm Incorporated Device and method for scalable coding of video information
KR101595397B1 (ko) * 2013-07-26 2016-02-29 경희대학교 산학협력단 서로 다른 다계층 비디오 코덱의 통합 부호화/복호화 방법 및 장치
US20150063469A1 (en) * 2013-08-30 2015-03-05 Arris Enterprises, Inc. Multipass encoder with heterogeneous codecs
US9818422B2 (en) * 2013-08-30 2017-11-14 The Regents Of The University Of California Method and apparatus for layered compression of multimedia signals for storage and transmission over heterogeneous networks
WO2015058395A1 (en) 2013-10-25 2015-04-30 Microsoft Technology Licensing, Llc Hash-based block matching in video and image coding
WO2015058397A1 (en) 2013-10-25 2015-04-30 Microsoft Technology Licensing, Llc Representing blocks with hash values in video and image coding and decoding
US9819947B2 (en) 2014-01-02 2017-11-14 Vid Scale, Inc. Methods, apparatus and systems for scalable video coding with mixed interlace and progressive content
WO2015131325A1 (en) * 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Hash table construction and availability checking for hash-based block matching
WO2015131326A1 (en) 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Encoder-side decisions for block flipping and skip mode in intra block copy prediction
US9712837B2 (en) * 2014-03-17 2017-07-18 Qualcomm Incorporated Level definitions for multi-layer video codecs
US9591316B2 (en) * 2014-03-27 2017-03-07 Intel IP Corporation Scalable video encoding rate adaptation based on perceived quality
CN105706450B (zh) * 2014-06-23 2019-07-16 微软技术许可有限责任公司 根据基于散列的块匹配的结果的编码器决定
KR102358276B1 (ko) 2014-09-30 2022-02-04 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 코딩을 위한 해시 기반 인코더 결정
US9591254B2 (en) 2015-03-26 2017-03-07 Qualcomm Incorporated Device and method for processing video data
WO2017020021A1 (en) * 2015-07-29 2017-02-02 Vid Scale, Inc. Scalable high efficiency video coding to high efficiency video coding transcoding
GB2544800A (en) * 2015-11-27 2017-05-31 V-Nova Ltd Adaptive bit rate ratio control
US10440401B2 (en) 2016-04-07 2019-10-08 Dolby Laboratories Licensing Corporation Backward-compatible HDR codecs with temporal scalability
US10390039B2 (en) 2016-08-31 2019-08-20 Microsoft Technology Licensing, Llc Motion estimation for screen remoting scenarios
US11095877B2 (en) 2016-11-30 2021-08-17 Microsoft Technology Licensing, Llc Local hash-based motion estimation for screen remoting scenarios
JP7178907B2 (ja) * 2017-02-03 2022-11-28 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US20200236355A1 (en) * 2017-08-01 2020-07-23 Sharp Kabushiki Kaisha Systems and methods for filtering reconstructed video data using adaptive loop filtering techniques
CN107800649A (zh) * 2017-10-29 2018-03-13 湖州师范学院 一种增强的基于路径的虚拟光网络映射方法
CN117834831A (zh) * 2018-01-16 2024-04-05 Vid拓展公司 用于360度视频译码的自适应帧封装
GB2570324A (en) * 2018-01-19 2019-07-24 V Nova Int Ltd Multi-codec processing and rate control
KR102039711B1 (ko) * 2018-03-13 2019-11-01 삼성전자주식회사 팬-아웃 부품 패키지
US10764588B2 (en) * 2018-08-10 2020-09-01 Apple Inc. Deep quality enhancement of adaptive downscaled coding for image compression
KR102022648B1 (ko) 2018-08-10 2019-09-19 삼성전자주식회사 전자 장치, 이의 제어 방법 및 서버의 제어 방법
GB201905400D0 (en) * 2019-04-16 2019-05-29 V Nova Int Ltd Video coding technology
CN110113604B (zh) * 2019-04-26 2021-03-30 电子科技大学 一种图像分层编码方法
JP7403245B2 (ja) * 2019-06-21 2023-12-22 キヤノン株式会社 画像復号装置、画像復号方法
CN111190577B (zh) * 2019-12-19 2023-03-31 贠学文 一种对工具包统一管理并实现轻量级mvc的框架构建方法
US11202085B1 (en) 2020-06-12 2021-12-14 Microsoft Technology Licensing, Llc Low-cost hash table construction and hash-based block matching for variable-size blocks
US11330296B2 (en) * 2020-09-14 2022-05-10 Apple Inc. Systems and methods for encoding image data
CN114913249A (zh) * 2021-02-08 2022-08-16 华为技术有限公司 编码、解码方法和相关设备
US11677934B2 (en) * 2021-09-24 2023-06-13 Apple Inc. Encoding and decoding video content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009000110A1 (en) * 2007-06-27 2008-12-31 Thomson Licensing Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
WO2010093432A1 (en) * 2009-02-11 2010-08-19 Thomson Licensing Methods and apparatus for bit depth scalable video encoding and decoding utilizing tone mapping and inverse tone mapping

Family Cites Families (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
WO2003103288A1 (en) * 2002-05-29 2003-12-11 Diego Garrido Predictive interpolation of a video signal
KR100596705B1 (ko) * 2004-03-04 2006-07-04 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템
DE102004059978B4 (de) * 2004-10-15 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium
KR100703740B1 (ko) * 2004-10-21 2007-04-05 삼성전자주식회사 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치
KR20060063613A (ko) * 2004-12-06 2006-06-12 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR100763178B1 (ko) * 2005-03-04 2007-10-04 삼성전자주식회사 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
US7303668B2 (en) * 2005-05-23 2007-12-04 Chin-Tuan Liao Filtering device
FR2889778A1 (fr) 2005-08-12 2007-02-16 Thomson Licensing Sas Procede de codage et de decodage d'images video avec echelonnabilite spatiale
KR100891662B1 (ko) * 2005-10-05 2009-04-02 엘지전자 주식회사 비디오 신호 디코딩 및 인코딩 방법
JP4950206B2 (ja) * 2005-10-11 2012-06-13 ノキア コーポレイション 効率的なスケーラブルストリーム適応のためのシステム及び方法
WO2007100187A1 (en) 2006-01-09 2007-09-07 Lg Electronics Inc. Inter-layer prediction method for video signal
KR100772873B1 (ko) 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
US8170116B2 (en) 2006-03-27 2012-05-01 Nokia Corporation Reference picture marking in scalable video encoding and decoding
KR101353204B1 (ko) * 2006-07-20 2014-01-21 톰슨 라이센싱 멀티-뷰 비디오 코딩에서의 뷰 스케일러빌리티를 신호로 알리기 위한 방법 및 장치
US8060651B2 (en) 2006-08-17 2011-11-15 Sharp Laboratories Of America, Inc. Systems and methods for adaptively packetizing data partitions for transport over a network
JP2008078979A (ja) * 2006-09-21 2008-04-03 Victor Co Of Japan Ltd 動画像階層符号量割当装置、階層符号化装置、階層符号量割当プログラム及び階層符号化プログラム
RU2387094C1 (ru) * 2006-11-09 2010-04-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для кодирования/декодирования видеосигнала
KR101349836B1 (ko) * 2006-11-17 2014-01-10 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
RU2426267C2 (ru) * 2007-01-08 2011-08-10 Нокиа Корпорейшн Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала
DE602007010835D1 (de) * 2007-01-18 2011-01-05 Fraunhofer Ges Forschung Qualitätsskalierbarer videodatenstrom
US8432968B2 (en) * 2007-10-15 2013-04-30 Qualcomm Incorporated Scalable video coding techniques for scalable bitdepths
JP5534521B2 (ja) * 2007-10-15 2014-07-02 トムソン ライセンシング スケーラブルなビデオのためにレイヤー間残差予測を行う方法および装置
CN101420609B (zh) 2007-10-24 2010-08-25 华为终端有限公司 视频编码、解码方法及视频编码器、解码器
WO2009130561A1 (en) * 2008-04-21 2009-10-29 Nokia Corporation Method and device for video coding and decoding
CN102450009B (zh) * 2009-04-20 2015-07-22 杜比实验室特许公司 在视频应用中用于视频预处理的滤波器选择
JP5059062B2 (ja) 2009-07-08 2012-10-24 シャープ株式会社 通信システム、移動局装置および基地局装置
CN103155568B (zh) * 2010-07-08 2016-07-27 杜比实验室特许公司 用于使用参考处理信号进行多层图像和视频传输的系统和方法
JP5612214B2 (ja) * 2010-09-14 2014-10-22 サムスン エレクトロニクス カンパニー リミテッド 階層的映像符号化及び復号化のための方法及び装置
US20120075436A1 (en) 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
EP2630799A4 (en) * 2010-10-20 2014-07-02 Nokia Corp METHOD AND DEVICE FOR VIDEO CODING AND DECODING
AU2012225513B2 (en) * 2011-03-10 2016-06-23 Vidyo, Inc. Dependency parameter set for scalable video coding
US9253233B2 (en) * 2011-08-31 2016-02-02 Qualcomm Incorporated Switch signaling methods providing improved switching between representations for adaptive HTTP streaming
US9124895B2 (en) * 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US9210430B2 (en) * 2012-01-19 2015-12-08 Sharp Kabushiki Kaisha Reference picture set signaling and restriction on an electronic device
AU2013215198A1 (en) 2012-01-31 2014-08-28 Vid Scale, Inc. Reference picture set (RPS) signaling for scalable high efficiency video coding (HEVC)
PL2822276T3 (pl) * 2012-02-29 2019-04-30 Lg Electronics Inc Sposób predykcji międzywarstwowej i stosujące go urządzenie
WO2013139250A1 (en) * 2012-03-22 2013-09-26 Mediatek Inc. Method and apparatus of scalable video coding
US10863170B2 (en) * 2012-04-16 2020-12-08 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding on the basis of a motion vector
US9191671B2 (en) * 2012-04-19 2015-11-17 Vid Scale, Inc. System and method for error-resilient video coding
US10205961B2 (en) * 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
US9253487B2 (en) * 2012-05-31 2016-02-02 Qualcomm Incorporated Reference index for enhancement layer in scalable video coding
WO2013189257A1 (en) * 2012-06-20 2013-12-27 Mediatek Inc. Method and apparatus of bi-directional prediction for scalable video coding
US20140003504A1 (en) * 2012-07-02 2014-01-02 Nokia Corporation Apparatus, a Method and a Computer Program for Video Coding and Decoding
EP2870757A1 (en) * 2012-07-09 2015-05-13 VID SCALE, Inc. Codec architecture for multiple layer video coding
CN104429075B (zh) * 2012-07-09 2017-10-31 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置及图像解码装置
US9854259B2 (en) * 2012-07-09 2017-12-26 Qualcomm Incorporated Smoothing of difference reference picture
US9344718B2 (en) * 2012-08-08 2016-05-17 Qualcomm Incorporated Adaptive up-sampling filter for scalable video coding
MX341900B (es) * 2012-08-29 2016-09-07 Vid Scale Inc Metodo y aparato de prediccion de vector de movimiento para codificacion de video escalable.
JP6055098B2 (ja) * 2012-09-09 2016-12-27 エルジー エレクトロニクス インコーポレイティド 映像復号方法及びそれを利用する装置
US20140069969A1 (en) 2012-09-11 2014-03-13 Christopher Yannis Bosch Delivery System
WO2014047134A1 (en) * 2012-09-18 2014-03-27 Vid Scale, Inc. Region of interest video coding using tiles and tile groups
AU2013322008B2 (en) * 2012-09-26 2016-10-27 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
MY201898A (en) * 2012-09-27 2024-03-22 Dolby Laboratories Licensing Corp Inter-layer reference picture processing for coding-standard scalability
US9565452B2 (en) * 2012-09-28 2017-02-07 Qualcomm Incorporated Error resilient decoding unit association
US20150237376A1 (en) * 2012-09-28 2015-08-20 Samsung Electronics Co., Ltd. Method for sao compensation for encoding inter-layer prediction error and apparatus therefor
EP2901688B1 (en) * 2012-09-28 2019-10-23 Nokia Technologies Oy An apparatus and a method for video coding and decoding
KR20140052831A (ko) * 2012-09-28 2014-05-07 삼성전자주식회사 참조 픽처 정보를 이용한 병렬 처리 비디오 부호화 방법 및 장치, 병렬 처리 비디오 복호화 방법 및 장치
KR102257542B1 (ko) * 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US10178410B2 (en) * 2012-10-03 2019-01-08 Mediatek Inc. Method and apparatus of motion information management in video coding
WO2014058210A1 (ko) * 2012-10-08 2014-04-17 삼성전자 주식회사 다시점 비디오의 인터 레이어 예측 구조에 따른 비디오 스트림 부호화 방법 및 그 장치, 다시점 비디오의 인터 레이어 예측 구조에 따른 비디오 스트림 복호화 방법 및 그 장치
US20140192881A1 (en) * 2013-01-07 2014-07-10 Sony Corporation Video processing system with temporal prediction mechanism and method of operation thereof
US9473779B2 (en) * 2013-03-05 2016-10-18 Qualcomm Incorporated Parallel processing for video coding
US9648353B2 (en) * 2013-04-04 2017-05-09 Qualcomm Incorporated Multiple base layer reference pictures for SHVC
US8958477B2 (en) * 2013-04-05 2015-02-17 Vidyo, Inc. Multiple reference layer prediction signaling techniques
US9674522B2 (en) * 2013-04-08 2017-06-06 Qualcomm Incorporated Device and method for scalable coding of video information
MX349993B (es) * 2013-04-08 2017-08-22 Arris Entpr Llc Gestion de memoria intermedia individual en codificacion de video.
US9509999B2 (en) * 2013-06-11 2016-11-29 Qualcomm Incorporated Inter-layer prediction types in multi-layer video coding
US9609329B2 (en) * 2013-06-25 2017-03-28 Samsung Electronics Co., Ltd Dynamic voltage/frequency scaling for video processing using embedded complexity metrics
US9648326B2 (en) * 2013-07-02 2017-05-09 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding
US9560358B2 (en) * 2013-07-22 2017-01-31 Qualcomm Incorporated Device and method for scalable coding of video information
EP3989585A1 (en) * 2013-10-11 2022-04-27 VID SCALE, Inc. High level syntax for hevc extensions
US9681145B2 (en) * 2013-10-14 2017-06-13 Qualcomm Incorporated Systems and methods for inter-layer RPS derivation based on sub-layer reference prediction dependency
US9819947B2 (en) * 2014-01-02 2017-11-14 Vid Scale, Inc. Methods, apparatus and systems for scalable video coding with mixed interlace and progressive content
US9654794B2 (en) * 2014-01-03 2017-05-16 Qualcomm Incorporated Methods for coding an inter-layer reference picture set (RPS) and coding end of bitstream (EOB) network access layer (NAL) units in multi-layer coding
US9641851B2 (en) * 2014-04-18 2017-05-02 Qualcomm Incorporated Conformance window information in multi-layer coding
CA2949823C (en) * 2014-05-21 2020-12-08 Arris Enterprises Llc Individual buffer management in transport of scalable video
US9716900B2 (en) * 2014-06-20 2017-07-25 Qualcomm Incorporated Extensible design of nesting supplemental enhancement information (SEI) messages
CN109121465B (zh) * 2016-05-06 2023-06-06 交互数字麦迪逊专利控股公司 用于运动补偿残差预测的系统和方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009000110A1 (en) * 2007-06-27 2008-12-31 Thomson Licensing Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
WO2010093432A1 (en) * 2009-02-11 2010-08-19 Thomson Licensing Methods and apparatus for bit depth scalable video encoding and decoding utilizing tone mapping and inverse tone mapping

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HYOMIN CHOI ET AL., SCALABLE STRUCTURES AND INTER-LAYER PREDICTIONS FOR HEVC SCALABLE EXTENSION, JPN6016006386, 14 July 2011 (2011-07-14), ISSN: 0004520733 *

Also Published As

Publication number Publication date
US11627340B2 (en) 2023-04-11
BR112015000480B1 (pt) 2023-02-07
MX2015000265A (es) 2015-08-14
KR20180112099A (ko) 2018-10-11
CA2878807C (en) 2018-06-12
JP2017225171A (ja) 2017-12-21
TW201424387A (zh) 2014-06-16
CA2878807A1 (en) 2014-01-16
KR20200038564A (ko) 2020-04-13
RU2015103915A (ru) 2016-08-27
AU2013288832B2 (en) 2016-10-13
JP2022023856A (ja) 2022-02-08
SG10201700161UA (en) 2017-03-30
TWI606716B (zh) 2017-11-21
US9998764B2 (en) 2018-06-12
TW201820863A (zh) 2018-06-01
IN2015DN00191A (ja) 2015-06-12
CN104429071A (zh) 2015-03-18
SG11201500129UA (en) 2015-02-27
US20180131967A1 (en) 2018-05-10
JP6574223B2 (ja) 2019-09-11
WO2014011595A1 (en) 2014-01-16
AU2013288832A1 (en) 2015-02-05
JP2023166011A (ja) 2023-11-17
MY172999A (en) 2019-12-18
IL236629A0 (en) 2015-02-26
US11012717B2 (en) 2021-05-18
US20200059671A1 (en) 2020-02-20
RU2616549C2 (ru) 2017-04-17
MX361767B (es) 2018-12-17
CN104429071B (zh) 2019-01-18
US20210250619A1 (en) 2021-08-12
KR20210129266A (ko) 2021-10-27
EP2870757A1 (en) 2015-05-13
AU2017200225A1 (en) 2017-02-02
EP3407608A1 (en) 2018-11-28
MX344952B (es) 2017-01-12
US10484717B2 (en) 2019-11-19
AU2017200225B2 (en) 2019-04-04
US20140010294A1 (en) 2014-01-09
JP2015523815A (ja) 2015-08-13
HK1204515A1 (en) 2015-11-20
BR112015000480A2 (pt) 2017-08-08
TWI649999B (zh) 2019-02-01
KR20150029745A (ko) 2015-03-18
CN110035286B (zh) 2021-11-12
CN110035286A (zh) 2019-07-19

Similar Documents

Publication Publication Date Title
JP6574223B2 (ja) 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
JP6592145B2 (ja) 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント
JP6515159B2 (ja) Hevc拡張のための高レベル構文
TWI578758B (zh) 視訊資料解碼的裝置及方法
JP2019068451A (ja) 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210608