JP2017169213A - スケーラブルビデオ符号化のための動き情報シグナリング - Google Patents

スケーラブルビデオ符号化のための動き情報シグナリング Download PDF

Info

Publication number
JP2017169213A
JP2017169213A JP2017088751A JP2017088751A JP2017169213A JP 2017169213 A JP2017169213 A JP 2017169213A JP 2017088751 A JP2017088751 A JP 2017088751A JP 2017088751 A JP2017088751 A JP 2017088751A JP 2017169213 A JP2017169213 A JP 2017169213A
Authority
JP
Japan
Prior art keywords
layer
prediction
reference picture
inter
enhancement layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017088751A
Other languages
English (en)
Other versions
JP6307650B2 (ja
Inventor
シアオユー シウ
Xiaoyu Xiu
シアオユー シウ
ホー ヨン
Yong He
ホー ヨン
ユーウェン ホー
yu-wen He
ユーウェン ホー
イエン イエ
Yan Ye
イエン イエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Publication of JP2017169213A publication Critical patent/JP2017169213A/ja
Application granted granted Critical
Publication of JP6307650B2 publication Critical patent/JP6307650B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】スケーラブルビデオ符号化のための動き情報をシグナリングする改善された方法および装置を提供する。【解決手段】スケーラブルビデオ符号化のための動き情報シグナリングを実行するための符号化装置は、複数のベースレイヤピクチャと、複数の対応するエンハンスメントレイヤピクチャとを含むビデオビットストリームを生成する。符号化装置は、エンハンスメントレイヤピクチャの1つの予測ユニット(PU)を識別する。符号化装置は、PUが参照ピクチャとしてエンハンスメントレイヤピクチャのレイヤ間参照ピクチャを使用するかどうかを決定する。PUが参照ピクチャとしてレイヤ間参照ピクチャを使用するという条件で、PUに関連付けられた動きベクトル情報を、動きゼロを示す値に設定するとともに、PUに関連付けられた、動きゼロを示す動きベクトル情報を送信する。【選択図】図6B

Description

本発明は、スケーラブルビデオ符号化のための動き情報をシグナリングする方法および装置に関する。
関連出願の相互参照
本願は、2013年1月7日に出願された米国特許仮出願第61/749,688号、および2013年1月18日に出願された米国特許仮出願第61/754,245号の利益を主張し、それらの内容は参照により本明細書に組み込まれる。
ワイヤレスネットワーク上の高帯域幅の利用により、マルチメディア技術とモバイル通信とは近年、大規模な成長と商業的成功とに至っている。無線通信技術は無線帯域幅を飛躍的に増加し、モバイルユーザのためのサービスの質を向上させている。様々なデジタルビデオ圧縮および/またはビデオ符号化技術は、効率的なデジタルビデオ通信、流通および消費を可能にするために開発されている。様々なビデオ符号化メカニズムは、符号化効率を向上させるために提供される。例えば、コロケートレイヤ間参照ピクチャに基づく動き補償予測の場合、動きベクトル情報が提供されてよい。
本発明は、スケーラブルビデオ符号化のための動き情報をシグナリングする改善された方法および装置を提供することにある。
システム、方法、装置は、スケーラブルビデオ符号化のための動き情報シグナリングを実装するために提供される。ビデオ符号化装置(VED)は、複数のベースレイヤピクチャと複数の対応するエンハンスメントレイヤピクチャとを含むビデオビットストリームを生成する。ベースレイヤピクチャはベースレイヤビットストリームに関連付けられ、エンハンスメントレイヤピクチャはエンハンスメントレイヤビットストリームに関連付けられる。VEDは、エンハンスメントレイヤピクチャの1つの予測ユニット(PU)を識別する。VEDは、PUが、参照ピクチャとしてエンハンスメントレイヤピクチャのレイヤ間参照ピクチャを使用するかどうかを決定する。VEDは、例えばPUが動き予測のための参照ピクチャとしてレイヤ間参照ピクチャを使用する場合、エンハンスメントレイヤのレイヤ間参照ピクチャに関連付けられた動きベクトル情報(例えば、動きベクトル予測子(MVP)、動きベクトル差(MVD)等)を、動きゼロを示す値に設定する。動きベクトル情報は、1つまたは複数の動きベクトルを含むことができる。動きベクトルは、PUと関連付けられている。
VEDは、例えばPUが参照ピクチャとしてレイヤ間参照ピクチャを使用する場合、エンハンスメントレイヤピクチャのPUの双方向予測のためのレイヤ間参照ピクチャの使用を無効にする。VEDは、例えばPUがレイヤ間参照ピクチャと時間予測とから動き補償予測を行う場合、エンハンスメントレイヤピクチャのPUの双方向予測を可能にする。VEDは、例えばPUが参照ピクチャとしてレイヤ間参照ピクチャを使用する場合、エンハンスメントレイヤピクチャのPUの双方向予測のためのレイヤ間参照ピクチャの使用を無効にする。
ビデオ復号化装置(VDD)は、複数のベースレイヤピクチャと複数のエンハンスメントレイヤピクチャとを含むビデオビットストリームを受信する。VDDは、例えばエンハンスメントレイヤピクチャの1つのPUが、動き予測のための参照ピクチャとしてレイヤ間参照ピクチャを参照する場合、PUに関連付けられたエンハンスメントレイヤ動きベクトルを、動きゼロを示す値に設定する。
より詳細な理解を、添付の図面と共に、例として与えられている以下の説明から得ることができる。
スケーラブルビデオ符号化(SVC)のための付加的レイヤ間予測を伴ったスケーラブル構成の一例を示す図である。 高効率ビデオ符号化(HEVC)空間スケーラブル符号化のための付加的レイヤ間予測を伴ったスケーラブル構成の一例を示す図である。 2層スケーラブルビデオエンコーダのアーキテクチャの一例を示す図である。 2層スケーラブルビデオデコーダのアーキテクチャの一例を示す図である。 ブロックベース単一レイヤビデオエンコーダのアーキテクチャの一例を示す図である。 ブロックベース単一レイヤビデオデコーダのアーキテクチャの一例を示す図である。 ビデオ符号化方法のアーキテクチャの一例を示す図である。 ビデオ復号化方法のアーキテクチャの一例を示す図である。 1つまたは複数の開示された実施形態が実施される通信システム例のシステム図である。 図7Aに図示された通信システム内で使用される無線送信/受信ユニット(WTRU)例のシステム図である。 図7Aに図示された通信システム内で使用される無線アクセスネットワーク例およびコアネットワーク例のシステム図である。 図7Aに図示された通信システム内で使用される無線アクセスネットワークの他の例およびコアネットワークの他の例のシステム図である。 図7Aに図示された通信システム内で使用される無線アクセスネットワークの他の例およびコアネットワークの他の例のシステム図である。
例示的な実施形態の詳細な説明が、様々な図を参照して、ここから行われる。この説明は、可能な実施の詳細な例を提供するが、細部は、例示的なものであることが意図されており、決して本出願の範囲を限定するものではないことに留意されたい。
広く配置されている商用のデジタルビデオ圧縮規格は、国際標準化機構/国際電気標準会議(ISO/IEC)およびITU電気通信標準化部門(ITU−T)によって、例えば、ムービングピクチャエキスパーツグループ2(MPEG−2)およびH.264(MPEG−4 Part10)によって開発された。高度なビデオ圧縮技術の出現および成熟が原因で、高効率ビデオコーディング(HEVC)が、ITU−Tビデオコーディングエキスパーツグループ(VCEG)およびMPEGによって共同開発されている。
衛星チャネル、ケーブルチャネル、および地上送信チャネル上での従来のデジタルビデオサービスと比較して、クライアント側および/またはネットワーク側における異機種混在度が高い、ビデオチャット、モバイルビデオ、およびストリーミングビデオなどのビデオアプリケーションが利用されている。スマートフォン、タブレット、およびTVなどのデバイスが、クライアント側で大半を占めることが予想され、ビデオは、インターネット、モバイルネットワーク、および/または両方の組み合わせを渡って送信される。ユーザエクスペリエンスおよびビデオサービス品質を改善するために、スケーラブルビデオコーディング(SVC)が使用される。SVCは、最も高い解像度で信号を符号化する。SVCは、あるアプリケーションによって必要とされ、クライアントデバイスによってサポートされる、特定のレートおよび解像度に応じて、ストリームのサブセットからの復号を可能にする。国際ビデオ規格、例えば、MPEG−2ビデオ、H.263、MPEG4ビジュアル、およびH.264は、様々なスケーラビリティモードをサポートするためのツールおよび/またはプロファイルを提供する。
例えば、H.264の、スケーラビリティ拡張は、部分的ビットストリームの送信および復号を可能にして、より低い時間解像度、空間解像度、および/または低減された忠実度を有するビデオサービスを提供するが、部分的ビットストリームのレートに強く関係する再構成品質は維持しているビデオサービスを提供する。図1は、スケーラブルコーディング効率を改善するための2レイヤSVCレイヤ間予測メカニズムの例を示す図である。同様のメカニズムは、マルチレイヤSVCコーディング構造にも適用される。図1に示されるように、ベースレイヤ1002およびエンハンスメントレイヤ1004は、異なる解像度を有する2つの隣接する空間スケーラブルレイヤを表す。エンハンスメントレイヤは、ベースレイヤよりも高い(例えば、解像度が高い)レイヤである。各単一レイヤ内で、(例えば、図1において点線によって表されるように)標準的なH.264符号化器として、動き補償予測およびイントラ予測が利用される。レイヤ間予測は、空間テクスチャ、動きベクトルプレディクタ、参照ピクチャインデックス、残差信号などの、ベースレイヤ情報を使用する。ベースレイヤ情報は、エンハンスメントレイヤ1004のコーディング効率を改善するために使用される。エンハンスメントレイヤ1004を復号するとき、SVCは、エンハンスメントレイヤピクチャを完全に再構成するために、より低いレイヤ(例えば、現在のレイヤの依存レイヤ)からの参照ピクチャを使用しない。
レイヤ間予測は、例えば、複数のレイヤ間で強い相関を探すために、およびスケーラブルコーディング効率を改善するために、HEVCスケーラブルコーディング拡張において利用される。図2は、HEVCスケーラブルコーディングのためのレイヤ間予測構造の例を示す図である。図2に示されるように、エンハンスメントレイヤ2006の予測は、(例えば、2つのレイヤ間の空間解像度が異なる場合は、2008において、ベースレイヤ信号2002をアップサンプリングした後)再構成されたベースレイヤ信号2004からの動き補償予測によって形成される。エンハンスメントレイヤ2006の予測は、現在のエンハンスメントレイヤ内での時間予測によって形成され、および/またはベースレイヤ再構成信号を時間予測信号と平均することによって形成される。そのような予測は、(例えば、図1において説明されたような)H.264 SVCと比較して、より低いレイヤのピクチャの再構成(例えば、全体的な再構成)を必要とする。同じメカニズムが、少なくとも2つのレイヤを有するHEVCスケーラブルコーディングのために配置される。ベースレイヤは、参照レイヤと呼ばれる。
図3は、2レイヤスケーラブルビデオ符号化器の例示的なアーキテクチャを示す図である。図3に示されるように、エンハンスメントレイヤビデオ入力3016およびベースレイヤビデオ入力3018は、空間スケーラビリティを達成するダウンサンプリングプロセスによって、互いに対応する。3002において、エンハンスメントレイヤビデオ3016は、ダウンサンプリングされる。ベースレイヤ符号化器3006(例えば、HEVC符号化器)は、ベースレイヤビデオ入力をブロック毎に符号化し、ベースレイヤビットストリームを生成する。エンハンスメントレイヤ、エンハンスメントレイヤ(EL)符号化器3004は、より高い空間解像度の(および/または他のビデオパラメータがより高い値をもつ)EL入力ビデオ信号を取得する。EL符号化器3004は、ベースレイヤビデオ符号化器3006と実質的に同様の手法で、例えば、圧縮を達成するために空間予測および/または時間予測を利用して、ELビットストリームを生成する。本明細書でレイヤ間予測(ILP)と呼ばれる、予測のさらなる形態が、コーディング性能を改善するために、エンハンスメント符号化器において利用可能である。図3に示されるように、ベースレイヤ(BL)ピクチャおよびELピクチャは、BL復号済ピクチャバッファ(DPB)3010およびEL DPB3008にそれぞれ記憶される。現在のエンハンスメントレイヤにおけるコード化ビデオ信号に基づいて予測信号を導出する空間予測および時間予測とは異なり、レイヤ間予測は、ベースレイヤ(および/またはスケーラブルシステムにおいて3以上のレイヤが存在する場合は、他のより低いレイヤ)を使用するピクチャレベルのILP3012に基づいて、予測信号を導出する。ビットストリームマルチプレクサ(例えば、図3のMUX3014)は、ベースレイヤビットストリームとエンハンスメントレイヤビットストリームを組み合わせて、1つのスケーラブルビットストリームを生成する。
図4は、図3に示されたスケーラブル符号化器に対応する、2レイヤスケーラブルビデオ復号器の例を示す図である。復号器は、例えば、符号化器とは反対の順序で、1または複数の操作を実行する。例えば、デマルチプレクサ(例えば、DEMUX4002)は、スケーラブルビットストリームをベースレイヤビットストリームとエンハンスメントレイヤビットストリームに分割する。ベースレイヤ復号器4006は、ベースレイヤビットストリームを復号し、ベースレイヤビデオを再構成する。ベースレイヤピクチャの1または複数は、BL DPB4012内に記憶される。エンハンスメントレイヤ復号器4004は、現在のレイヤからの情報、および/または1もしくは複数の依存レイヤ(例えば、ベースレイヤ)からの情報を使用することによって、エンハンスメントレイヤビットストリームを復号する。例えば、1または複数の依存レイヤからのそのような情報は、ピクチャレベルILP4014が使用される場合に達成されるレイヤ間処理を通過する。エンハンスメントレイヤピクチャの1または複数は、EL DPB4010内に記憶される。図3および図4には示されていないが、MUX3014では、追加のILP情報も、ベースレイヤビットストリームおよびエンハンスメントレイヤビットストリームと一緒に多重化される。ILP情報は、DEMUX4002によって逆多重化される。
図5は、図3においてベースレイヤ符号化器として使用された、例示的なブロックベースのシングルレイヤビデオ符号化器を示す図である。図5に示されるように、シングルレイヤ符号化器は、(例えば、イントラ予測と呼ばれる)空間予測5020、ならびに/または(例えば、インター予測および/もしくは動き補償予測と呼ばれる)時間予測5022などの技法を利用して、効率的な圧縮を達成し、および/または入力ビデオ信号を予測する。符号化器は、最も適切な予測の形態を選択するモード決定ロジック5002を有する。符号化器の決定ロジックは、検討事項であるレートと歪みの組み合わせに基づく。符号化器は、変換ユニット5004および量子化ユニット5006をそれぞれ使用して、予測残差(例えば、入力信号と予測信号との間の差分信号)を変換および量子化する。量子化された残差は、モード情報(例えば、イントラ予測またはインター予測)、および予測情報(例えば、動きベクトル、参照ピクチャインデックス、イントラ予測モードなど)と一緒に、エントロピコーダ5008においてさらに圧縮され、出力ビデオビットストリームにパックされる。符号化器は、量子化された残差に(例えば、逆量子化ユニット5010を使用する)逆量子化、および(例えば、逆変換ユニット5012を使用する)逆変換を適用して、再構成された残差を獲得することによって、再構成されたビデオ信号を生成する。符号化器は、再構成されたビデオ信号を予測信号5014に戻して加算する。再構成されたビデオ信号は、(例えば、デブロッキングフィルタ、サンプル適応オフセット、および/または適応ループフィルタを使用する)ループフィルタプロセス5016を通過し、参照ピクチャストア5018内に記憶されて、将来のビデオ信号を予測するために使用される。参照ピクチャストアという用語は、本明細書では、復号済ピクチャバッファまたはDPBという用語と交換可能に使用される。図6Aは、図5の符号化器によって生成されたビデオビットストリームを受信し、表示されるビデオ信号を再構成する、例示的なブロックベースのシングルレイヤ復号器を示す図である。ビデオ復号器において、ビットストリームは、エントロピ復号器6002によって解析される。再構成された残差を獲得するために、残差係数が、(例えば、逆量子化ユニット6004を使用して)逆量子化され、(例えば、逆変換ユニット6006を使用して)逆変換される。予測信号を獲得するために、コーディングモードおよび予測情報が使用される。これは、空間予測6010および/または時間予測6008を使用して達成される。再構成されたビデオを獲得するために、予測信号および再構成された残差が、一緒に加算される。再構成されたビデオは、さらに、(例えば、ループフィルタ6014を使用する)ループフィルタリングを通過する。再構成されたビデオは、その後、参照ピクチャストア6012内に記憶されてから、表示され、および/または将来のビデオ信号を復号するために使用される。
HEVCは、すでにコード化されたビデオピクチャ(例えば、参照ピクチャ)からのピクセルを使用して、現在のビデオピクチャ内のピクセルを予測することによって、ビデオ信号に本質的なピクチャ間冗長性を探すための高度な動き補償予測技法を提供する。動き補償予測では、コード化される現在のブロックと参照ピクチャ内の1または複数の一致ブロックとの間の変位が、動きベクトル(MV)によって表される。各MVは、水平方向および垂直方向の変位をそれぞれ表す、2つの成分MVxおよびMVyを含む。HEVCは、動き補償予測のために、1または複数のピクチャ/スライスタイプ、例えば、予測ピクチャ/スライス(Pピクチャ/スライス)、双予測ピクチャ/スライス(Bピクチャ/スライス)などをさらに利用する。Pスライスの動き補償予測では、単方向予測(単予測)が適用され、各ブロックは、1つの参照ピクチャからの1つの動き補償ブロックを使用して予測される。Bスライスでは、Pスライスで利用可能な単予測に加えて、双方向予測(例えば、双予測)が使用され、1つのブロックは、2つの参照ピクチャからの2つの動き補償ブロックを平均することによって予測される。参照ピクチャの管理を容易化するために、HEVCでは、PスライスおよびBスライスの動き補償予測のために使用される参照ピクチャのリストとして、参照ピクチャリストが指定される。ピクチャリスト(例えば、LIST0)が、Pスライスの動き補償予測において使用され、参照ピクチャリスト(例えば、LIST0、LIST1など)が、Bスライスの予測のために使用される。復号プロセス中に動き補償予測について同じプレディクタを再構成するために、参照ピクチャリスト、参照ピクチャインデックス、および/またはMVが、復号器に送信される。
HEVCでは、予測ユニット(PU)は、選択された参照ピクチャリスト、参照ピクチャインデックス、および/またはMVを含む、動き予測に関連する情報を運ぶために使用される、基本ブロックユニットを含む。ひとたびコーディングユニット(CU)階層ツリーが決定されると、ツリーの各CUは、複数のPUにさらに分割される。HEVCは、1または複数のPU区画形状をサポートし、区画化モードの、例えば、2N×2N、2N×N、N×2N、およびN×Nは、CUの分割ステータスを示す。CUは、例えば、分割されず(例えば、2N×2N)、または水平方向に2つの等しいサイズのPU(例えば、2N×N)に、垂直方向に2つの等しいサイズのPU(例えば、N×2N)に、および/もしくは4つの等しいサイズのPU(例えば、N×N)に分割される。HEVCは、非対称動き区画と呼ばれる異なるサイズのPU、例えば、2N×nU、2N×nD、nL×2N、およびnR×2Nなどへの、CUの分割をサポートする、様々な区画化モードを定義する。
例えば、HEVCシングルレイヤ規格を使用する2つのレイヤ(例えば、ベースレイヤおよびエンハンスメントレイヤ)を用いるスケーラブルシステムが、本明細書で説明される。しかしながら、本明細書で説明されるメカニズムは、少なくとも2つのレイヤを有する、様々なタイプの基礎をなすシングルレイヤコーデックを使用する、他のスケーラブルコーディングシステムに適用可能である。
例えば、図2に示されるような、スケーラブルビデオコーディングシステムでは、エンハンスメントレイヤにおける各PUの動き関連情報を伝達するために、HEVCのデフォルトシグナリング方法が使用される。表1は、例示的なPUシグナリングシンタックスを示している。
スケーラブルビデオコーディングのためのシングルレイヤHEVCのPUシグナリングを使用する場合、エンハンスメントレイヤのインター予測は、(例えば、空間解像度がレイヤ間で異なる場合はアップサンプリングして)ベースレイヤから獲得されるレイヤ間参照ピクチャの信号を、別のエンハンスメントレイヤ時間参照ピクチャのそれと組み合わせることによって形成される。しかしながら、この組み合わせは、レイヤ間予測の有効性を、したがって、エンハンスメントレイヤのコーディング効率を低下させる。例えば、空間スケーラビリティのためのアップサンプリングフィルタの適用は、時間エンハンスメントレイヤ参照ピクチャと比較して、アップサンプリングされたレイヤ間参照ピクチャにリンギングアーチファクトを導入する。リンギングアーチファクトは、量子化およびコード化するのが困難なより高い予測残差という結果となる。HEVCシグナリング設計は、エンハンスメントレイヤの双予測のために、同じレイヤ間参照ピクチャからの2つの予測信号を平均することを可能にする。1つのレイヤ間参照ピクチャから来た2つの予測ブロックを、同じレイヤ間参照ピクチャからの1つの予測ブロックを使用することによって表すことが、より効率的である。例えば、レイヤ間参照ピクチャは、併置されたベースレイヤピクチャから導出される。エンハンスメントレイヤピクチャとレイヤ間参照ピクチャの対応する領域との間には、ゼロの動きが存在する。いくつかの場合では、現行のHEVC PUシグナリングは、例えば、動き予測のためにレイヤ間参照ピクチャを参照するとき、エンハンスメントレイヤピクチャが、非ゼロ動きベクトルを使用することを可能にする。HEVC PUシグナリングは、エンハンスメントレイヤにおいて動き補償予測の効率性の低下を引き起こす。図2に示されるように、エンハンスメントレイヤピクチャは、動き補償予測のためにレイヤ間参照ピクチャを参照する。
エンハンスメントレイヤのためのHEVC PUシグナリングでは、レイヤ間参照ピクチャからの動き補償予測は、現在のエンハンスメントレイヤ内での時間予測と、またはエンハンスメントレイヤ自体からの動き補償予測と組み合わされる。双予測ケースは、レイヤ間予測の効率を低減させ、エンハンスメントレイヤコーディングの性能の低下という結果となる。例えば、参照としてレイヤ間参照ピクチャを使用する場合、2つの単予測制約が、動き予測効率を高めるために使用される。
エンハンスメントレイヤピクチャの双予測のためのレイヤ間参照ピクチャの使用が不可能にされる。例えば、エンハンスメントレイヤピクチャのPUが、動き予測のためにレイヤ間参照ピクチャを参照する場合、エンハンスメントレイヤピクチャは、単予測を使用して予測される。
エンハンスメントレイヤの双予測は、レイヤ間参照ピクチャからの動き補償予測を現在のエンハンスメントレイヤからの時間予測と組み合わせることを可能にされる。エンハンスメントレイヤの予測は、同じレイヤ間参照ピクチャから来た2つの動き補償予測を組み合わせることを不可能にされる。レイヤ間単予測制約は、符号化器側における操作変更を含む。例えば、表1において提供されたようなPUシグナリングには変化がない。
エンハンスメントレイヤ動き予測のための参照として、レイヤ間参照ピクチャが選択される場合、ゼロMV制約を用いるPUシグナリング方法は、エンハンスメントレイヤMVシグナリングを簡略化する。エンハンスメントレイヤピクチャと、対応する併置されたレイヤ間参照ピクチャとの一致領域との間には、動きが存在しない。これは、動きベクトルプレディクタ(MVP)および動きベクトル差(MVD)を明示的に識別するオーバヘッドを低減する。例えば、エンハンスメントレイヤピクチャのPUの動き補償予測のために、レイヤ間参照ピクチャが使用される場合、ゼロMVが使用される。エンハンスメントレイヤピクチャは、エンハンスメントレイヤと関連付けられ、レイヤ間参照ピクチャは、ベースレイヤピクチャ(例えば、併置されたベースレイヤピクチャ)から導出される。表2は、レイヤ間ゼロMV制約を用いる例示的なPUシンタックスを示している。表2に示されるように、例えば、ref_idx_l0またはref_idx_l1によって示されるピクチャが、レイヤ間参照ピクチャに対応する場合、(例えば、変数MvdL0およびMvdL1によって示される)動きベクトル情報は、ゼロに等しい。例えば、エンハンスメントレイヤピクチャのPUの動き補償予測のために、レイヤ間参照ピクチャが使用される場合、レイヤ間参照ピクチャと関連付けられた動きベクトルは、送信されない。
表2に示されるように、レイヤ間参照(ILR)ピクチャが参照として使用される場合に、ゼロMV制約がエンハンスメントレイヤに適用されるかどうかを指定するために、フラグ、例えば、zeroMV_enabled_flagが使用される。zeroMV_enabled_flagは、シーケンスレベルパラメータセット(例えば、シーケンスレベルパラメータセット)で伝達される。関数IsILRPic(LX,refidx)は、参照ピクチャリストLXからの参照ピクチャインデックスrefidxを有する参照ピクチャが、レイヤ間参照ピクチャであるか(TRUE)、それともレイヤ間参照ピクチャでないか(FALSE)を指定する。
レイヤ間ゼロMV制約は、レイヤ間参照ピクチャを参照として含むエンハンスメントレイヤの動き補償予測のための第1のレイヤ間単予測制約と組み合わされる。例えば、エンハンスメントレイヤピクチャの1つのPUが、レイヤ間参照ピクチャを参照する場合、レイヤ間参照ピクチャにおいて同一場所に配置されたブロックのピクセルを予測のために使用することによって、エンハンスメントレイヤPUが単予測される。
レイヤ間ゼロMV制約は、レイヤ間参照ピクチャを参照として含むエンハンスメントレイヤの動き補償予測のための第2のレイヤ間単予測制約と組み合わされる。各エンハンスメントレイヤPUの動き予測のために、レイヤ間参照ピクチャにおいて同一場所に配置されたブロックからの予測が、エンハンスメントレイヤからの時間予測と組み合わされる。
ILRピクチャのためのゼロMV制約の使用は、ビットストリームで伝達される。エンハンスメントレイヤのためのPUシグナリングは、ビットストリームで伝達される。シーケンスレベルフラグ(例えば、zeroMV_enabled_flag)は、ILRピクチャが動き補償予測のために選択されたときに、提案されるゼロMV制約がエンハンスメントレイヤに適用されるかどうかを示す。ゼロMV制約信号は、復号プロセスを容易化する。例えば、誤り隠蔽のために、フラグが使用される。復号器は、ビットストリームにおいて誤りが存在する場合、ILR動きベクトルを訂正する。エンハンスメントレイヤにおいて、表2の例によって示されるような提案されるPUシグナリングが適用されるか、それとも表1の例によって示されるようなPUシグナリングが適用されるかを示すために、シーケンスレベルフラグ(例えば、changed_pu_signaling_enabled_flag)が、ビットストリームに追加される。2つのフラグは、高レベルのパラメータセット、例えば、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)などにも適用される。表3は、シーケンスレベルで、ゼロMV制約が使用されるかどうか、および/または提案されるPUシグナリングが使用されるかどうかを示すためのSPSにおける2つのフラグの追加を例によって示している。
表3に示されるように、layer_idは、現在のシーケンスが配置されているレイヤを指定する。layer_idの範囲は、例えば、0から、スケーラブルビデオシステムによって許可された最大レイヤまでである。フラグ、例えば、zeroMV_enabled_flagは、例えば、ILRピクチャが参照として使用される場合、ゼロMV制約が、layer_idによって識別されるエンハンスメントレイヤに適用されないことを示す。zeroMV_enabled_flagは、例えば、ILRピクチャを参照として使用する動き補償予測のために、ゼロMV制約がエンハンスメントレイヤに適用されることを示す。
フラグ、例えば、changed_pu_signaling_enabled_flagは、例えば、変更されていないPUシグナリングが、layer_idによって識別される現在のエンハンスメントレイヤに適用されることを示す。フラグ、例えば、sps_changed_pu_signaling_enabled_flagは、例えば、変更されたPUシグナリングが、layer_idによって識別される現在のエンハンスメントレイヤに適用されることを示す。
図6Bは、ビデオ符号化方法の例を示す図である。図6Bに示されるように、6050において、複数のエンハンスメントレイヤピクチャの1つについての予測ユニット(PU)を識別する。6052において、ビデオ符号化デバイスは、PUが、エンハンスメントレイヤピクチャのレイヤ間参照ピクチャを参照ピクチャとして使用するかどうかを決定する。6054において、ビデオ符号化デバイスは、例えば、PUがレイヤ間参照ピクチャを参照ピクチャとして使用する場合、エンハンスメントレイヤのレイヤ間参照ピクチャに関連付けられた動きベクトル情報を、動きゼロを示す値になるように設定する。
図6Cは、ビデオ復号方法の例を示す図である。図6Cに示されるように、6070において、ビデオ復号デバイスは、ビットストリームを受信する。ビットストリームは、複数のベースレイヤピクチャと、複数の対応するエンハンスメントレイヤピクチャとを含む。6072において、ビデオ復号デバイスは、受信されたエンハンスメントレイヤピクチャの1つについてのPUが、レイヤ間参照ピクチャを参照ピクチャとして使用するかどうかを決定する。PUがレイヤ間参照ピクチャを参照ピクチャとして使用する場合、6074において、ビデオ復号デバイスは、レイヤ間参照ピクチャに関連付けられたエンハンスメントレイヤ動きベクトルを動きゼロを示す値になるように設定する。
例えば、レイヤ間ゼロ動きベクトル制約を用いるPUシグナリングを利用する、本明細書で説明されたビデオコーディング技法は、図7A〜図7Eに示されるような、例示的な無線通信システム700などの無線通信システム、およびその構成要素における、ビデオのトランスポートに従って実施される。
図7Aは、1または複数の開示される実施形態が実施される例示的な通信システム700の図である。通信システム700は、音声、データ、ビデオ、メッセージング、放送などのコンテンツを複数の無線ユーザに提供する、多元接続システムである。通信システム700は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共用を通して、そのようなコンテンツにアクセスすることを可能にする。例えば、通信システム700は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、およびシングルキャリアFDMA(SC−FDMA)など、1または複数のチャネルアクセス方法を利用する。
図7Aに示されるように、通信システム700は、(一般にまたは一括してWTRU702と呼ばれることがある)無線送信/受信ユニット(WTRU)702a、702b、702c、および/または702d、無線アクセスネットワーク(RAN)703/704/705、コアネットワーク706/707/709、公衆交換電話網(PSTN)108、インターネット710、ならびに他のネットワーク712を含むが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図していることが理解される。WTRU702a、702b、702c、702dの各々は、無線環境において動作および/または通信するように構成された任意のタイプのデバイスである。例として、WTRU702a、702b、702c、702dは、無線信号を送信および/または受信するように構成され、ユーザ機器(UE)、移動局、固定もしくは移動加入者ユニット、ページャ、セルラ電話、携帯情報端末(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、および家電製品などを含む。
通信システム700は、基地局714aおよび基地局714bも含む。基地局714a、714bの各々は、コアネットワーク706/707/709、インターネット710、および/またはネットワーク712などの1または複数の通信ネットワークへのアクセスを容易化するために、WTRU702a、702b、702c、702dの少なくとも1つと無線でインターフェースを取るように構成された、任意のタイプのデバイスである。例として、基地局714a、714bは、基地送受信機局(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、サイトコントローラ、アクセスポイント(AP)、および無線ルータなどである。基地局714a、714bは各々、単一の要素として示されているが、基地局714a、714bは、任意の数の相互接続された基地局および/またはネットワーク要素を含むことが理解される。
基地局714aは、RAN703/704/705の部分であり、RAN703/704/705は、他の基地局、および/または基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどのネットワーク要素(図示せず)も含む。基地局714aおよび/または基地局714bは、セル(図示せず)と呼ばれることがある特定の地理的領域内で、無線信号を送信および/または受信するように構成される。セルは、さらにセルセクタに分割される。例えば、基地局714aに関連付けられたセルは、3つのセクタに分割される。したがって、一実施形態では、基地局714aは、送受信機を3つ、例えば、セルのセクタ毎に1つずつ含む。別の実施形態では、基地局714aは、マルチ−入力・マルチ−出力(MIMO)技術を利用し、したがって、セルのセクタ毎に複数の送受信機を利用する。
基地局714a、714bは、エアインターフェース715/716/717上で、WTRU702a、702b、702c、702dの1または複数と通信し、エアインターフェース715/716/717は、任意の適切な無線通信リンク(例えば、無線周波(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光など)である。エアインターフェース715/716/717は、任意の適切な無線アクセス技術(RAT)を使用して確立される。
より具体的には、上で言及されたように、通信システム700は、多元接続システムであり、CDMA、TDMA、FDMA、OFDMA、およびSC−FDMAなどの、1または複数のチャネルアクセス方式を利用する。例えば、RAN703/704/705内の基地局714a、およびWTRU702a、702b、702cは、広帯域CDMA(WCDMA(登録商標))を使用してエアインターフェース715/716/717を確立する、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実施する。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含む。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含む。
別の実施形態では、基地局714a、およびWTRU702a、702b、702cは、ロングタームエボリューション(LTE)および/またはLTEアドバンスト(LTE−A)を使用してエアインターフェース715/716/717を確立する、進化型UMTS地上無線アクセス(E−UTRA)などの無線技術を実施する。
他の実施形態では、基地局714a、およびWTRU702a、702b、702cは、IEEE802.16(例えば、マイクロ波アクセス用の世界的相互運用性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動体通信用グローバルシステム(GSM(登録商標))、GSMエボリューション用の高速データレート(EDGE)、およびGSM EDGE(GERAN)などの無線技術を実施する。
図7Aの基地局714bは、例えば、無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントであり、職場、家庭、乗物、およびキャンパスなどの局所的エリアにおける無線接続性を容易化するために、任意の適切なRATを利用する。一実施形態では、基地局714b、およびWTRU702c、702dは、IEEE802.11などの無線技術を実施して、無線ローカルエリアネットワーク(WLAN)を確立する。別の実施形態では、基地局714b、およびWTRU702c、702dは、IEEE802.15などの無線技術を実施して、無線パーソナルエリアネットワーク(WPAN)を確立する。また別の実施形態では、基地局714b、およびWTRU702c、702dは、セルラベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用して、ピコセルまたはフェムトセルを確立する。図7Aに示されるように、基地局714bは、インターネット710への直接的な接続を有する。したがって、基地局714bは、コアネットワーク706/707/709を介して、インターネット710にアクセスする必要がない。
RAN703/704/705は、コアネットワーク706/707/709と通信し、コアネットワーク706/707/709は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスをWTRU702a、702b、702c、702dの1または複数に提供するように構成された、任意のタイプのネットワークである。例えば、コアネットワーク706/707/709は、呼制御、請求サービス、モバイルロケーションベースのサービス、プリペイド通話、インターネット接続性、ビデオ配信などを提供し、および/またはユーザ認証など、高レベルのセキュリティ機能を実行する。図7Aには示されていないが、RAN703/704/705および/またはコアネットワーク706/707/709は、RAN703/704/705と同じRATまたは異なるRATを利用する他のRANと直接的または間接的に通信することが理解されよう。例えば、E−UTRA無線技術を利用するRAN703/704/705に接続するのに加えて、コアネットワーク706/707/709は、GSM無線技術を利用する別のRAN(図示せず)とも通信する。
コアネットワーク706/707/709は、PSTN708、インターネット710、および/または他のネットワーク712にアクセスするための、WTRU702a、702b、702c、702dのためのゲートウェイとしての役割も果たす。PSTN708は、基本電話サービス(POTS)を提供する回線交換電話網を含む。インターネット710は、TCP/IPインターネットプロトコルスイート内の伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)など、共通の通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスからなるグローバルシステムを含む。ネットワーク712は、他のサービスプロバイダによって所有および/または運営される有線または無線通信ネットワークを含む。例えば、ネットワーク712は、RAN703/704/705と同じRATまたは異なるRATを利用する1または複数のRANに接続された、別のコアネットワークを含む。
通信システム700内のWTRU702a、702b、702c、702dのいくつかまたはすべては、マルチモード機能を含み、例えば、WTRU702a、702b、702c、702dは、異なる無線リンク上で異なる無線ネットワークと通信するための複数の送受信機を含む。例えば、図7Aに示されたWTRU702cは、セルラベースの無線技術を利用する基地局714aと通信するように、またIEEE802無線技術を利用する基地局714bと通信するように構成される。
図7Bは、例示的なWTRU702のシステム図である。図7Bに示されるように、WTRU702は、プロセッサ718と、送受信機720と、送信/受信要素722と、スピーカ/マイクロフォン724と、キーパッド726と、ディスプレイ/タッチパッド728と、着脱不能メモリ730と、着脱可能メモリ732と、電源734と、全地球測位システム(GPS)チップセット736と、他の周辺機器738とを含む。WTRU702は、実施形態との整合性を保ちながら、上記の要素の任意のサブコンビネーションを含むことが理解される。また、実施形態は、基地局714a、714b、ならびに/またはとりわけ、送受信機局(BTS)、ノードB、サイトコントローラ、アクセスポイント(AP)、ホームノードB、進化型ホームノードB(eノードB)、ホーム進化型ノードB(HeNBもしくはHeノードB)、ホーム進化型ノードBゲートウェイ、およびプロキシノードなどの、しかし、それらに限定されない、基地局714a、714bが表すノードが、図7Bに示され、本明細書で説明される要素のいくつかまたはすべてを含むことを企図している。
プロセッサ718は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと連携する1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、および状態機械などである。プロセッサ718は、信号コード化、データ処理、電力制御、入力/出力処理、および/またはWTRU702が無線環境で動作することを可能にする他の任意の機能を実行する。プロセッサ718は、送受信機720に結合され、送受信機720は、送信/受信要素722に結合される。図7Bは、プロセッサ718と送受信機720を別々の構成要素として示しているが、プロセッサ718と送受信機720は、電子パッケージまたはチップ内に一緒に統合されることが理解される。
送信/受信要素722は、エアインターフェース715/716/717上で、基地局(例えば、基地局714a)に信号を送信し、または基地局から信号を受信するように構成される。例えば、一実施形態では、送信/受信要素722は、RF信号を送信および/または受信するように構成されたアンテナである。別の実施形態では、送信/受信要素722は、例えば、IR、UV、または可視光信号を送信および/または受信するように構成された放射器/検出器である。また別の実施形態では、送信/受信要素722は、RF信号と光信号の両方を送信および受信するように構成される。送信/受信要素722は、無線信号の任意の組み合わせを送信および/または受信するように構成されることが理解される。
加えて、図7Bでは、送信/受信要素722は単一の要素として示されているが、WTRU702は、任意の数の送信/受信要素722を含む。より具体的には、WTRU702は、MIMO技術を利用する。したがって、一実施形態では、WTRU702は、エアインターフェース715/716/717上で無線信号を送信および受信するための2以上の送信/受信要素722(例えば、複数のアンテナ)を含む。
送受信機720は、送信/受信要素722によって送信される信号を変調し、送信/受信要素722によって受信された信号を復調するように構成される。上で言及されたように、WTRU702は、マルチモード機能を有する。したがって、送受信機720は、WTRU702が、例えば、UTRAおよびIEEE802.11などの複数のRATを介して通信することを可能にするための、複数の送受信機を含む。
WTRU702のプロセッサ718は、スピーカ/マイクロフォン724、キーパッド726、および/またはディスプレイ/タッチパッド728(例えば、液晶表示(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合され、それらからユーザ入力データを受信する。プロセッサ718は、また、スピーカ/マイクロフォン724、キーパッド726、および/またはディスプレイ/タッチパッド728にユーザデータを出力する。加えて、プロセッサ718は、着脱不能メモリ730および/または着脱可能メモリ732など、任意のタイプの適切なメモリから情報を入手し、それらにデータを記憶する。着脱不能メモリ730は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスク、または他の任意のタイプのメモリ記憶デバイスを含む。着脱可能メモリ732は、加入者識別モジュール(SIM)カード、メモリスティック、およびセキュアデジタル(SD)メモリカードなどを含む。他の実施形態では、プロセッサ718は、WTRU702上に物理的に配置されたメモリではなく、サーバまたはホームコンピュータ(図示せず)上などに配置されたメモリから情報を入手し、それらにデータを記憶する。
プロセッサ718は、電源734から電力を受け取り、WTRU702内の他の構成要素への電力の分配および/または制御を行うように構成される。電源734は、WTRU702に給電するための任意の適切なデバイスである。例えば、電源734は、1または複数の乾電池(例えば、ニッケル−カドミウム(NiCd)、ニッケル−亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li−ion)など)、太陽電池、および燃料電池などを含む。
プロセッサ718は、GPSチップセット736にも結合され、GPSチップセット736は、WTRU702の現在位置に関する位置情報(例えば、経度および緯度)を提供するように構成される。GPSチップセット736からの情報に加えて、またはその代わりに、WTRU702は、基地局(例えば、基地局714a、714b)からエアインターフェース715/716/717上で位置情報を受信し、および/または2以上の近くの基地局から受信した信号のタイミングに基づいて、自らの位置を決定する。WTRU702は、実施形態との整合性を保ちながら、任意の適切な位置決定実施を用いて、位置情報を獲得することが理解される。
プロセッサ718は、他の周辺機器738にさらに結合され、他の周辺機器738は、追加的な特徴、機能、および/または有線もしくは無線接続性を提供する、1または複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含む。例えば、周辺機器738は、加速度計、eコンパス、衛星送受信機、(写真またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、バイブレーションデバイス、テレビ送受信機、ハンズフリーヘッドセット、ブルートゥース(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、およびインターネットブラウザなどを含む。
図7Cは、実施形態による、RAN703およびコアネットワーク706のシステム図である。上で言及されたように、RAN703は、UTRA無線技術を利用して、エアインターフェース715上でWTRU702a、702b、702cと通信する。RAN703は、コアネットワーク706とも通信する。図7Cに示されるように、RAN703は、ノードB740a、740b、740cを含み、ノードB740a、740b、740cは各々、エアインターフェース715上でWTRU702a、702b、702cと通信するための1または複数の送受信機を含む。ノードB740a、740b、740cは各々、RAN703内の特定のセル(図示せず)に関連付けられる。RAN703は、RNC742a、742bも含む。RAN703は、実施形態との整合性を保ちながら、任意の数のノードBおよびRNCを含むことが理解される。
図7Cに示されるように、ノードB740a、740bは、RNC742aと通信する。加えて、ノードB740cは、RNC742bと通信する。ノードB740a、740b、740cは、Iubインターフェースを介して、それぞれのRNC742a、742bと通信する。RNC742a、742bは、Iurインターフェースを介して、互いに通信する。RNC742a、742bの各々は、それが接続されたそれぞれのノードB740a、740b、740cを制御するように構成される。加えて、RNC742a、742bの各々は、アウタループ電力制御、負荷制御、アドミッションコントロール、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシティ、セキュリティ機能、およびデータ暗号化など、他の機能を実施またはサポートするように構成される。
図7Cに示されるコアネットワーク706は、メディアゲートウェイ(MGW)744、モバイル交換センタ(MSC)746、サービングGPRSサポートノード(SGSN)748、および/またはゲートウェイGPRSサポートノード(GGSN)750を含む。上記の要素の各々は、コアネットワーク706の部分として示されているが、これらの要素は、どの1つをとっても、コアネットワークオペレータとは異なるエンティティによって所有および/または運営されることが理解される。
RAN703内のRNC742aは、IuCSインターフェースを介して、コアネットワーク706内のMSC746に接続される。MSC746は、MGW744に接続される。MSC746とMGW744は、PSTN708などの回線交換ネットワークへのアクセスをWTRU702a、702b、702cに提供して、WTRU702a、702b、702cと従来の陸線通信デバイスの間の通信を容易化する。
RAN703内のRNC742aは、IuPSインターフェースを介して、コアネットワーク706内のSGSN748にも接続される。SGSN748は、GGSN750に接続される。SGSN748とGGSN750は、インターネット710などのパケット交換ネットワークへのアクセスをWTRU702a、702b、702cに提供して、WTRU702a、702b、702cとIP対応デバイスとの間の通信を容易化する。
上述したように、コアネットワーク706は、ネットワーク712にも接続され、ネットワーク712は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含む。
図7Dは、実施形態による、RAN704およびコアネットワーク707のシステム図である。上述したように、RAN704は、エアインターフェース716上でWTRU702a、702b、702cと通信するために、E−UTRA無線技術を利用する。RAN704は、コアネットワーク707とも通信する。
RAN704は、eノードB760a、760b、760cを含むが、RAN704は、実施形態との整合性を保ちながら、任意の数のeノードBを含むことが理解される。eノードB760a、760b、760cは、各々が、エアインターフェース716上でWTRU702a、702b、702cと通信するための1または複数の送受信機を含む。一実施形態では、eノードB760a、760b、760cは、MIMO技術を実施する。したがって、eノードB760aは、例えば、複数のアンテナを使用して、WTRU702aに無線信号を送信し、WTRU702aから無線信号を受信する。
eノードB760a、760b、760cの各々は、特定のセル(図示せず)に関連付けられ、無線リソース管理決定、ハンドオーバ決定、ならびにアップリンクおよび/またはダウンリンクにおけるユーザのスケジューリングなどを処理するように構成される。図7Dに示されるように、eノードB760a、760b、760cは、X2インターフェース上で互いに通信する。
図7Dに示されるコアネットワーク707は、モビリティ管理ゲートウェイ(MME)762、サービングゲートウェイ764、およびパケットデータネットワーク(PDN)ゲートウェイ766を含む。上記の要素の各々は、コアネットワーク707の部分として示されているが、これらの要素は、どの1つをとっても、コアネットワークオペレータとは異なるエンティティによって所有および/または運営されることが理解される。
MME762は、S1インターフェースを介して、RAN704内のeノードB760a、760b、760cの各々に接続され、制御ノードとしての役割を果たす。例えば、MME762は、WTRU702a、702b、702cのユーザの認証、ベアラアクティブ化/非アクティブ化、WTRU702a、702b、702cの初期接続中における特定のサービングゲートウェイの選択などを担う。MME762は、RAN704とGSMまたはWCDMAなどの他の無線技術を利用する他のRAN(図示せず)との間の交換のためのコントロールプレーン機能も提供する。
サービングゲートウェイ764は、S1インターフェースを介して、RAN704内のeノードB760a、760b、760cの各々に接続される。サービングゲートウェイ764は、一般に、ユーザデータパケットのWTRU702a、702b、702cへの/からの経路選択および転送を行う。サービングゲートウェイ764は、eノードB間ハンドオーバ中におけるユーザプレーンのアンカリング、ダウンリンクデータがWTRU702a、702b、702cに利用可能な場合に行う一斉呼び出しのトリガ、ならびにWTRU702a、702b、702cのコンテキストの管理および記憶など、他の機能も実行する。
サービングゲートウェイ764は、PDNゲートウェイ766にも接続され、PDNゲートウェイ766は、インターネット710などのパケット交換ネットワークへのアクセスをWTRU702a、702b、702cに提供して、WTRU702a、702b、702cとIP対応デバイスとの間の通信を容易化する。
コアネットワーク707は、他のネットワークとの通信を容易化する。例えば、コアネットワーク707は、PSTN708などの回線交換ネットワークへのアクセスをWTRU702a、702b、702cに提供して、WTRU702a、702b、702cと従来の陸線通信デバイスとの間の通信を容易化する。例えば、コアネットワーク707は、コアネットワーク707とPSTN708との間のインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含み、またはIPゲートウェイと通信する。加えて、コアネットワーク707は、ネットワーク712へのアクセスをWTRU702a、702b、702cに提供し、ネットワーク712は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含む。
図7Eは、実施形態による、RAN705およびコアネットワーク709のシステム図である。RAN705は、IEEE802.16無線技術を利用して、エアインターフェース717上でWTRU702a、702b、702cと通信する、アクセスサービスネットワーク(ASN)である。以下でさらに説明されるように、WTRU702a、702b、702c、RAN705、およびコアネットワーク709の異なる機能エンティティ間の通信リンクは、参照点として定義される。
図7Eに示されるように、RAN705は、基地局780a、780b、780cと、ASNゲートウェイ782とを含むが、RAN705は、実施形態との整合性を保ちながら、任意の数の基地局とASNゲートウェイとを含むことが理解される。基地局780a、780b、780cは、各々が、RAN705内の特定のセル(図示せず)に関連付けられ、各々が、エアインターフェース717上でWTRU702a、702b、702cと通信するための1または複数の送受信機を含む。一実施形態では、基地局780a、780b、780cは、MIMO技術を実施する。したがって、基地局780aは、例えば、複数のアンテナを使用して、WTRU702aに無線信号を送信し、WTRU702aから無線信号を受信する。基地局780a、780b、780cは、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、およびサービス品質(QoS)方針実施などの、モビリティ管理機能も提供する。ASNゲートウェイ782は、トラフィック集約ポイントとしての役割を果たし、一斉呼び出し、加入者プロファイルのキャッシング、およびコアネットワーク709への経路選択などを担う。
WTRU702a、702b、702cとRAN705との間のエアインターフェース717は、IEEE802.16仕様を実施する、R1参照点として定義される。加えて、WTRU702a、702b、702cの各々は、コアネットワーク709との論理インターフェース(図示せず)を確立する。WTRU702a、702b、702cとコアネットワーク709との間の論理インターフェースは、R2参照点として定義され、R2参照点は、認証、認可、IPホスト構成管理、および/またはモビリティ管理のために使用される。
基地局780a、780b、780cの各々の間の通信リンクは、WTRUハンドオーバおよび基地局間でのデータの転送を容易化するためのプロトコルを含む、R8参照点として定義される。基地局780a、780b、780cとASNゲートウェイ782との間の通信リンクは、R6参照点として定義される。R6参照点は、WTRU702a、702b、702cの各々に関連付けられたモビリティイベントに基づいたモビリティ管理を容易化するためのプロトコルを含む。
図7Eに示されるように、RAN705は、コアネットワーク709に接続される。RAN705とコアネットワーク709との間の通信リンクは、例えば、データ転送およびモビリティ管理機能を容易化するためのプロトコルを含む、R3参照点として定義される。コアネットワーク709は、モバイルIPホームエージェント(MIP−HA)784と、認証認可課金(AAA)サーバ786と、ゲートウェイ788とを含む。上記の要素の各々は、コアネットワーク709の部分として示されているが、これらの要素は、どの1つをとっても、コアネットワークオペレータとは異なるエンティティによって所有および/または運営されることが理解される。
MIP−HAは、IPアドレス管理を担い、WTRU702a、702b、702cが、異なるASNの間で、および/または異なるコアネットワークの間でローミングを行うことを可能にする。MIP−HA784は、インターネット710などのパケット交換ネットワークへのアクセスをWTRU702a、702b、702cに提供して、WTRU702a、702b、702cとIP対応デバイスとの間の通信を容易化する。AAAサーバ786は、ユーザ認証、およびユーザサービスのサポートを担う。ゲートウェイ788は、他のネットワークとの網間接続を容易化する。例えば、ゲートウェイ788は、PSTN708などの回線交換ネットワークへのアクセスをWTRU702a、702b、702cに提供して、WTRU702a、702b、702cと従来の陸線通信デバイスとの間の通信を容易化する。加えて、ゲートウェイ788は、ネットワーク712へのアクセスをWTRU702a、702b、702cに提供し、ネットワーク712は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含む。
図7Eには示されていないが、RAN705は、他のASNに接続され、コアネットワーク709は、他のコアネットワークに接続されることが理解される。RAN705と他のASNとの間の通信リンクは、R4参照点として定義され、R4参照点は、RAN705と他のASNとの間で、WTRU702a、702b、702cのモビリティを調整するためのプロトコルを含む。コアネットワーク709と他のコアネットワークとの間の通信リンクは、R5参照として定義され、R5参照はホームコアネットワークと在圏コアネットワークとの間の網間接続を容易化するためのプロトコルを含む。
本明細書で説明されたプロセスおよび手段は、任意の組み合わせで適用され、他の無線技術に適用され、および他のサービスのために適用される。本明細書で説明されたプロセスは、コンピュータおよび/またはプロセッサによって実行される、コンピュータ可読媒体内に包含された、コンピュータプログラム、ソフトウェア、および/またはファームウェアで実施される。コンピュータ可読媒体の例は、(有線および/もしくは無線接続上で送信される)電子信号、ならびに/またはコンピュータ可読記憶媒体を含むが、それらに限定されない。コンピュータ可読記憶媒体の例は、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよび着脱可能ディスクなどの、しかし、それらに限定されない、磁気媒体、光磁気媒体、ならびに/またはCD−ROMディスクおよび/もしくはデジタル多用途ディスク(DVD)などの光媒体を含むが、それらに限定されない。ソフトウェアと連携するプロセッサは、WTRU、UE、端末、基地局、RNC、および/または任意のホストコンピュータで使用するための無線周波送受信機を実施するために使用される。

Claims (1)

  1. ビデオ符号化方法であって、
    複数のベースレイヤピクチャと、複数の対応するエンハンスメントレイヤピクチャとを含んでいるビデオビットストリームを生成するステップと、
    前記エンハンスメントレイヤピクチャの1つに関連付けられた予測ユニット(PU)を識別するステップと、
    前記PUが参照ピクチャとしてレイヤ間参照ピクチャを使用するかどうかを判定するステップと、
    前記PUが前記参照ピクチャとして前記レイヤ間参照ピクチャを使用するという条件で、
    前記PUに関連付けられた動きベクトル情報を、動きゼロを示す値に設定するステップと、
    前記PUに関連付けられた、動きゼロを示す前記動きベクトル情報を送信するステップと
    を備えたことを特徴とするビデオ符号化方法。
JP2017088751A 2013-01-07 2017-04-27 スケーラブルビデオ符号化のための動き情報シグナリング Active JP6307650B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361749688P 2013-01-07 2013-01-07
US61/749,688 2013-01-07
US201361754245P 2013-01-18 2013-01-18
US61/754,245 2013-01-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015551828A Division JP6139701B2 (ja) 2013-01-07 2014-01-07 スケーラブルビデオ符号化のための動き情報シグナリング

Publications (2)

Publication Number Publication Date
JP2017169213A true JP2017169213A (ja) 2017-09-21
JP6307650B2 JP6307650B2 (ja) 2018-04-04

Family

ID=50033790

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015551828A Active JP6139701B2 (ja) 2013-01-07 2014-01-07 スケーラブルビデオ符号化のための動き情報シグナリング
JP2017088751A Active JP6307650B2 (ja) 2013-01-07 2017-04-27 スケーラブルビデオ符号化のための動き情報シグナリング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015551828A Active JP6139701B2 (ja) 2013-01-07 2014-01-07 スケーラブルビデオ符号化のための動き情報シグナリング

Country Status (7)

Country Link
US (1) US20150358635A1 (ja)
EP (1) EP2941873A1 (ja)
JP (2) JP6139701B2 (ja)
KR (1) KR101840915B1 (ja)
CN (2) CN104904214A (ja)
TW (1) TWI675585B (ja)
WO (1) WO2014107720A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2512827B (en) * 2013-04-05 2015-09-16 Canon Kk Method and device for classifying samples of an image
US11438609B2 (en) 2013-04-08 2022-09-06 Qualcomm Incorporated Inter-layer picture signaling and related processes
KR20150075041A (ko) * 2013-12-24 2015-07-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
WO2015147427A1 (ko) 2014-03-24 2015-10-01 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
JPWO2016088160A1 (ja) * 2014-12-01 2017-09-21 富士通株式会社 画像復号装置、画像処理システム、及び画像復号方法
EP3797516A1 (en) 2018-06-29 2021-03-31 Beijing Bytedance Network Technology Co. Ltd. Interaction between lut and amvp
TWI723444B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念
WO2020003278A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Update of look up table: fifo, constrained fifo
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
EP3791588A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Checking order of motion candidates in lut
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
EP4307679A3 (en) 2018-07-02 2024-06-19 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
CN113273186A (zh) 2019-01-10 2021-08-17 北京字节跳动网络技术有限公司 Lut更新的调用
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
CN113302937B (zh) 2019-01-16 2024-08-02 北京字节跳动网络技术有限公司 运动候选推导
CN113615193B (zh) 2019-03-22 2024-06-25 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN113194313B (zh) * 2021-05-06 2022-09-27 展讯通信(上海)有限公司 视频帧压缩、解压方法和设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525924A (ja) * 2004-03-04 2007-09-06 サムスン エレクトロニクス カンパニー リミテッド ビデオストリーミングサービスのためのビデオコーディング方法とビデオエンコーディングシステム、及びビデオデコーディング方法とビデオデコーディングシステム
JP2008517543A (ja) * 2004-10-20 2008-05-22 トムソン ライセンシング ビデオ画像の階層符号化法
JP2008533850A (ja) * 2005-03-10 2008-08-21 クゥアルコム・インコーポレイテッド 二層符号化及び単層復号化による階層的ビデオ符号化

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100587561B1 (ko) * 2004-04-08 2006-06-08 삼성전자주식회사 모션 스케일러빌리티를 구현하는 방법 및 장치
BRPI0610398B1 (pt) * 2005-04-13 2019-07-02 Nokia Technologies Oy Método e aparelho
EP1999960A4 (en) * 2006-03-24 2011-05-18 Korea Electronics Telecomm CODING METHOD FOR REDUCING REDUNDANCY BETWEEN LAYERS USING MITION DATA OF THE FGS LAYER AND ESTABLISHMENT THEREFOR
KR101311656B1 (ko) * 2006-05-05 2013-09-25 톰슨 라이센싱 스케일러블 비디오 코딩을 위한 간략화된 레이어간 모션 예측
CN101669366A (zh) * 2006-10-16 2010-03-10 韩国电子通信研究院 具有自适应参考精细粒度信噪比可伸缩性和精细粒度信噪比可伸缩性运动细化机制的可伸缩视频编码编码器及其方法
CN101401430B (zh) * 2006-11-17 2012-02-29 Lg电子株式会社 用于解码/编码视频信号的方法及装置
TWI368444B (en) * 2006-11-17 2012-07-11 Lg Electronics Inc Method and apparatus for decoding/encoding a video signal
US8121197B2 (en) * 2007-11-13 2012-02-21 Elemental Technologies, Inc. Video encoding and decoding using parallel processors
CN102075766B (zh) * 2009-11-23 2013-01-09 华为技术有限公司 视频编码、解码方法、装置及视频编解码系统
US20120075436A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
US9066110B2 (en) * 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
US20130003847A1 (en) * 2011-06-30 2013-01-03 Danny Hong Motion Prediction in Scalable Video Coding
JP2014523708A (ja) * 2011-07-01 2014-09-11 モトローラ モビリティ エルエルシー 動きベクトル予測設計の簡易化

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525924A (ja) * 2004-03-04 2007-09-06 サムスン エレクトロニクス カンパニー リミテッド ビデオストリーミングサービスのためのビデオコーディング方法とビデオエンコーディングシステム、及びビデオデコーディング方法とビデオデコーディングシステム
JP2008517543A (ja) * 2004-10-20 2008-05-22 トムソン ライセンシング ビデオ画像の階層符号化法
JP2008533850A (ja) * 2005-03-10 2008-08-21 クゥアルコム・インコーポレイテッド 二層符号化及び単層復号化による階層的ビデオ符号化

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIE DONG ET AL.: "Description of scalable video coding technology proposal by InterDigital Communications", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-K0034_r1, JPN6016022457, October 2012 (2012-10-01), pages 1 - 30, ISSN: 0003736023 *
JUNG WON KANG ET AL.: "Description of scalable video coding technology proposal by ETRI and Kwangwoon Univ.", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-K0037, JPN6016022451, October 2012 (2012-10-01), pages 1 - 20, ISSN: 0003736024 *
KEN MCCANN ET AL.: "Description of high efficiency scalable video coding technology proposal by Samsung and Vidyo", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-K0044, JPN6016022458, October 2012 (2012-10-01), pages 1 - 31, ISSN: 0003736025 *
KIRAN MISRA ET AL.: "Description of scalable video coding technology proposal by Sharp (proposal 1)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-K0031_r1, JPN6016022456, October 2012 (2012-10-01), pages 1 - 36, ISSN: 0003736022 *

Also Published As

Publication number Publication date
CN110611814A (zh) 2019-12-24
CN104904214A (zh) 2015-09-09
JP2016506699A (ja) 2016-03-03
TWI675585B (zh) 2019-10-21
JP6139701B2 (ja) 2017-05-31
KR101840915B1 (ko) 2018-03-21
JP6307650B2 (ja) 2018-04-04
WO2014107720A1 (en) 2014-07-10
EP2941873A1 (en) 2015-11-11
KR20150105435A (ko) 2015-09-16
US20150358635A1 (en) 2015-12-10
TW201431351A (zh) 2014-08-01

Similar Documents

Publication Publication Date Title
JP6307650B2 (ja) スケーラブルビデオ符号化のための動き情報シグナリング
US11343519B2 (en) Method and apparatus of motion vector prediction for scalable video coding
JP6463799B2 (ja) スケーラブルビデオコーディングのための拡張時間的動きベクトル予測
TWI625052B (zh) 多層視訊編碼以片段為基礎之跨越模式傳訊
TWI573445B (zh) 影像編碼參考圖像清單發信及建構方法
US10616597B2 (en) Reference picture set mapping for standard scalable video coding
TW201419867A (zh) 可調視訊編碼層相依及優先傳訊設計

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R150 Certificate of patent or registration of utility model

Ref document number: 6307650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250