JP2015530830A - スケーラブルビデオ符号化における変換基準の調整 - Google Patents

スケーラブルビデオ符号化における変換基準の調整 Download PDF

Info

Publication number
JP2015530830A
JP2015530830A JP2015530111A JP2015530111A JP2015530830A JP 2015530830 A JP2015530830 A JP 2015530830A JP 2015530111 A JP2015530111 A JP 2015530111A JP 2015530111 A JP2015530111 A JP 2015530111A JP 2015530830 A JP2015530830 A JP 2015530830A
Authority
JP
Japan
Prior art keywords
transform
transformation
video
video information
adjusted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015530111A
Other languages
English (en)
Other versions
JP6293756B2 (ja
JP2015530830A5 (ja
Inventor
カークゼウィックズ、マルタ
グオ、リウェイ
ソル・ロジャルス、ジョエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015530830A publication Critical patent/JP2015530830A/ja
Publication of JP2015530830A5 publication Critical patent/JP2015530830A5/ja
Application granted granted Critical
Publication of JP6293756B2 publication Critical patent/JP6293756B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

特定の観点にしたがってビデオ情報を符号化するための装置は、メモリユニットと、メモリユニットと通信するプロセッサを含む。メモリユニットは、基準層と対応する拡張層に関連付けられるビデオ情報を記憶する。プロセッサは、基準層と拡張層に関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得する。プロセッサは、ビデオ情報に関連付けられる変換関数に基づいて調整変換関数を決定する。プロセッサは、調整された変換関数と残差ブロック情報に基づいて変換ブロックを決定する。

Description

[0001]本開示はビデオ符号化に関する。
[0002]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、無線ブロードキャストシステム、個人用デジタル補助装置(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、e−ブックリーダー、デジタルカメラ、デジタル録音デバイス、デジタル・メディア・プレーヤー、ビデオゲームデバイス、ビデオゲームコンソール、セルラーまたは衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、パート10、先進ビデオ符号化(AVC)、現在開発中の高機能ビデオ符号化(HEVC)標準、およびこういった標準の拡張によって定義される標準に記載された技術のようなビデオ符号化技術を実装する。ビデオデバイスは、こういったビデオ符号化技術を実装することによって、より効果的にデジタルビデオ情報を送信、受信、エンコード、デコード、および/または格納し得る。
[0003]ビデオ符号化技術は、ビデオシーケンスに内在する冗長性を低減するため、あるいは取り除くための空間(ピクチャ内)予測および/または時間(ピクチャ間)予測を含む。ブロックベースでのビデオ符号化のために、ビデオスライス(例えば、ビデオフレームまたはビデオフレームの一部分)はビデオブロックに区分され得、それらは、ツリーブロック、符号化ユニット(CU)および/または符号化ノードとも称され得る。ピクチャ(picture)のイントラ符号化(intra−coded)された(I)スライス内のビデオブロックは、同じピクチャにおける隣接ブロック内の基準サンプルについて空間予測を用いてエンコードされる。ピクチャのインター符号化(inter−coded)された(PまたはB)スライス内のビデオブロックは、同じピクチャにおける隣接ブロック内の基準サンプルについて空間予測を用いるか、あるいは他の基準ピクチャ内の基準サンプルについて時間予測を用い得る。ピクチャ(picture)はフレームと称され得、および基準ピクチャは基準フレームと称され得る。
[0004]空間または時間予測は、符号化されるブロックのための予測ブロックをもたらす。残差データは、符号化される元のブロックと予測ブロックの間の画素差を表す。インター符号化ブロックは、予測ブロックを形成する基準サンプルのブロックを指す動きベクトルにしたがってエンコードされ、残差データは、符号化ブロックと予測ブロックの間の差分を示す。イントラ符号化ブロックは、イントラ符号化モードと残差データにしたがってエンコードされる。さらなる圧縮のために、残差データは画素領域から変換領域に変換され、残差変換係数をもたらし得、それは次に量子化され得る。量子化された変換係数は、2次元アレイに初めに配列され、変換係数の1次元ベクトルを生成するために走査され得、エントロピーエンコーディングはさらに圧縮を実現するために適用され得る。
[0005]一般的に、本開示は、スケーラブルビデオ符号化中に、条件的にまたは適応的に変換関数を調整することによって符号化のパフォーマンスを向上することに関する。
[0006]1つまたは複数の例の詳細は、添付の図面と下記の詳述において説明される。他の特徴、オブジェクト、および利点は、詳述、図面、および請求項から明白であるだろう。
[0007]1つの実施例において、ビデオ情報を符号化するように構成された装置は、メモリユニットとプロセッサを含む。メモリユニットは、基準層と対応する拡張層に関連付けられるビデオ情報を記憶するように構成される。プロセッサはメモリユニットと通信を行う。プロセッサは、基準層と拡張層に関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得するように構成される。プロセッサはまた、ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定するように構成される。プロセッサはまた、調整された変換関数と残差ブロック情報に基づいて変換ブロックを決定するように構成される。
[0008]別の実施例において、ビデオ情報をデコードする方法は、基準層と対応する拡張層に関連付けられるビデオ情報を記憶することを含む。この方法はまた、基準層と拡張層に関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することを含む。この方法はまた、ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することを含む。この方法はまた、調整された変換関数と残差ブロック情報に基づいて変換ブロックを決定することを含む。この方法はまた、変換ブロックを用いてビデオ情報をデコードすることを含む。
[0009]別の実施例において、ビデオ情報をエンコードする方法が提供される。この方法は、基準層と対応する拡張層に関連付けられるビデオ情報を記憶することを含む。この方法はまた、基準層と拡張層に関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することを含む。この方法はまた、ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することを含む。この方法はまた、調整された変換関数と残差ブロック情報に基づいて変換ブロックを決定することを含む。この方法はまた、変換ブロックを用いてビデオ情報をエンコードすることを含む。
[0010]さらに別の実施例において、ビデオ情報を符号化するための手段が提供される。この装置は、基準層と対応する拡張層に関連付けられるビデオ情報を記憶するための手段を含む。この装置はまた、基準層と拡張層に関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得するための手段を含む。この装置はまた、ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定するための手段を含む。この装置はまた、調整された変換関数と残差ブロック情報に基づいて変換ブロックを決定するための手段を含む。
[0011]さらに別の実施例において、コンピュータ可読媒体は、コンピュータで実行可能な命令を有するものであって、コンピュータで実行可能な命令は、計算デバイスによって実行される時に、基準層と対応する拡張層に関連付けられるビデオ情報を記憶することを計算デバイスにさせる。この命令はまた、基準層と対応する拡張層に関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することを計算デバイスにさせる。この命令はまた、ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することを計算デバイスにさせる。この命令はまた、調整された変換関数と残差ブロック情報に基づいて変換ブロックを決定することを計算デバイスにさせる。
[0012]図1は、本開示に記載された観点にしたがった技術を利用し得るビデオエンコーディングおよびデコーディングシステムの例を示すブロック図である。 [0013]図2は、本開示に記載された観点にしたがった技術を実施し得るビデオエンコーダの例を示すブロック図である。 [0014]図3は、本開示に記載された観点にしたがった技術を実施し得るビデオデコーダの例を示すブロック図である。 [0015]図4は、多次元スケーラビリティ(multi-dimensional scalabilities)の例を示すブロック図である。 [0016]図5は、SVC符号化構造の1つの実施例のブロック図である。 [0017]図6は、種々のアクセスユニットを形成する符号化スライスのビットストリームの1つの実施例を示すブロック図である。 [0018]図7は、協置ブロックの1つの実施例を示すブロック図である。 [0019]図8は、変換基準の調整の方法のフローチャートである。
詳細な説明
[0020]本開示に記載された技術は一般に、スケーラブルビデオ符号化(SVC)および3Dビデオ符号化に関する。例えば、この技術は、高機能ビデオ符号化(HEVC)スケーラブルビデオ符号化(SVC)拡張に関し、およびそれと共にまたその中で用いられ得る。SVC拡張において、ビデオ情報の複数の層が存在し得る。最下位にある層は、基本層(BL)としての役割を果たし得、および最上位層にある層は、拡張された層(EL)としての役割を果たし得る。「拡張された層」は、「拡張層」と称されることもあり、これらの用語は、置換可能に用いられ得る。中間にある全ての層は、ELまたはBL、あるいはその両方としての役割を果たし得る。例えば、中間にある層は、基本層または任意の介在する拡張層のように、それより下の層にとってはELであり得、同時に、それより上の拡張層にとってはBLとしての役割を果たす。
[0021]階層間予測が用いられないビデオ符号化において、DCと低周波数(LF)構成要素は、変換後に最大の残差エネルギーを有する傾向がある。この性質(DC/LF構成要素が、大振幅を有する傾向にある一方でHF構成要素は低振幅を有する傾向にある)は、圧縮効率の良さを実現するために特定のビデオ符号化工程において活用されてきた。しかし、スケーラブルビデオ符号化の残差は、階層間予測(例えば、下記に記載されるイントラBLモードにおける予測)に起因して異なる分布属性を有する可能性がある。特に、SVCを用いると、残差は、よりノイズのようになり、ならびにエネルギーは、全体またはより大きい周波数領域にわたって広がる可能性がある。確かに、非SVCビデオ符号化とは異なり、SVCを用いると、HF構成要素はDCまたはLF構成要素より多くのエネルギーを有することが可能である。それ故に、通常の非SVCビデオ符号化に用いられる従来の方法は、スケーラブルビデオ符号化にうまく機能し得ない。変換基準調整は、SVCを実施する時の圧縮効率を向上するのに貢献し得る。こういった技術は、下記でより詳細に説明される。さらに、これらの技術は、エンコーダ(例えば、下記で、図1および2を参照して説明されるような)および/またはデコーダ(例えば、下記で、図1および3を参照して説明されるような)によって実施され得る。
[0022]例示のみのために、本開示に記載された技術は、2つの層のみ(例えば、基本層のようなより低位の層および拡張された層のようなより高位の層)を含む例を用いて説明される。本開示に記載された例は、複数の基本層と拡張層も用いた例にも拡大適用され得ることが理解されるべきである。
[0023]ビデオ符号化標準は、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 VisualおよびITU−T H.264(ISO/IEC MPEG−4 AVCとしても知られる)を含み、スケーラブルビデオ符号化(SVC)およびマルチビュービデオ符号化(MVC)拡張を含む。さらに、新しいビデオ符号化標準、すなわち高機能ビデオ符号化(HEVC)は、ITU−Tビデオ符号化専門家グループ(VCEG)とISO/IEC動画専門家グループ(MPEG)からなるビデオ符号化(JCT−VC)に関する共同協力チームによって開発されている。HEVCの最近のドラフトは、2012年6月7日から、http://wg11.sc29.org/jct/doc_end_user/current_document.php?id=5885/JCTVC−I1003−v2から入手可能となっている。「HEVC作業ドラフト7」と称されるHEVC標準の別の最近のドラフトは、2012年6月7日から、http://phenix.it−sudparis.eu/jct/doc_end_user/documents/9_Geneva/wg11/JCTVC−I1003−v3.zipからダウンロード可能となっている。HEVC作業ドラフト7に記載の完全版は、文献HCTVC−I1003、ブロス氏他、「高機能ビデオ符号化(HEVC)テキスト仕様ドラフト7」、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11のビデオ符号化(JCT−VC)に関する共同協力チーム、2012年4月27日から5月7日までスイスのジュネーブにおいて開催された第9回会議、である。これらの基準の各々は、その全体における参照によって組み込まれる。
[0024]スケーラブルビデオ符号化(SVC)は、品質(信号対ノイズ(SNR)とも称される)スケーラビリティ、空間スケーラビリティおよび/または時間スケーラビリティを提供するために用いられ得る。拡張された層は、基本層とは異なる差分空間解像度を有し得る。例えば、ELとBLの間の空間アスペクト比率は、1.0、1.5、2.0または他の異なる比率であり得る。換言すると、ELの空間アスペクトはBLの空間アスペクトの1.0、1.5、2.0倍に等しい。いくつかの例において、ELのスケーリング因子は、BLよりも大きい可能性がある。例えば、EL内のピクチャのサイズは、BL内のピクチャのサイズより大きい可能性がある。このように、ELの空間解像度がBLの空間解像度より大きい可能性はあり得るが、それに限定されることはない。
[0025]H.264のためのSVC拡張において、現在のブロックの予測は、SVCに提供される異なる層を用いて実行され得る。こういった予測は階層間予測と称され得る。階層間予測方法は、階層間の冗長性を低減するためにSVCにおいて利用され得る。階層間予測のいくつかの例は、階層間イントラ予測、階層間動き予測、および階層間残差予測を含み得る。階層間イントラ予測は、拡張層における現在のブロックを予測するために、基本層内の協置ブロックの再構成を用いる。階層間動き予測は、拡張層における動きを予測するために、基本層の動きを用いる。階層間残差予測は、拡張層の残差を予測するために基本層の残差を用いる。
[0026]階層間残差予測において、基本層の残差は、拡張層における現在のブロックを予測するために用いられ得る。残差は、ソースビデオユニットとビデオユニットに関する時間予測の間の差分として定義され得る。残差予測において、基本層の残差はまた、現在のブロックを予測する際に検討される。例えば、現在のブロックは、拡張層からの残差、拡張層からの時間予測、および基本層からの残差を用いて再構成され得る。現在のブロックは、下記の式にしたがって再構成され得る。
ここにおいて、
は現在のブロックの再構成を表し、
は拡張層からの残差を表し、
は、拡張層からの時間予測を表し、および
は、基本層からの残差予測を表す。
[0027]拡張層におけるマクロブロック(MB)に階層間残差予測を用いるために、基本層内の協置マクロブロックは、インターMBであるべきであり、および協置基本層マクロブロックの残差は、拡張層の空間解像度比にしたがってアップサンプルされ得る(例えば、SVCにおける層は異なる空間解像度を有し得るので)。階層間残差予測において、拡張層の残差とアップサンプルされた基本層の残差の間の差分はビットストリーム内で符号化され得る。基本層の残差は、基本および拡張層の量子化過程の間の比率に基づいて正規化され得る。
[0028]H.264へのSVC拡張は、デコーダのために低い複雑性を保持するために、動き補償のために単一ループデコーディングを要求する。一般的に、動き補償は、下記のように、現在のブロックに関する残差と時間予測を加算することによって行われる。
ここにおいて、
は現在のフレームを表し、rは残差を表し、およびPは時間予測を表す。単一ループデコーディングにおいて、SVCにおいて各サポートされた層は、単一動き補償ループを用いてデコードされ得る。これを実現するために、上位層を階層間イントラ予測するために用いられる全ての層は、制約されたイントラ予測を用いて符号化される。制約されたイントラ予測において、イントラモードMBは、隣接インター符号化MBからの任意のサンプルを参照することなくイントラ符号化される。一方、HEVCはSVCにマルチループデコーディングを可能し、そこにおいて、SVC層は複数の動き補償ループを用いてデコードされ得る。例えば、基本層が最初に完全にデコードされ、次に拡張層がデコードされる。
[0029]式(1)において公式化された残差予測は、H.264SVC拡張において有効な技術であり得る。しかし、その性能は、特にマルチループデコーディングがHEVC SVC拡張において用いられるときに、HEVC SVC拡張においてさらに向上し得る。
[0030]マルチループデコーディングの場合、差分領域動き補償が残差予測の代わりに用いられ得る。SVCにおいて、拡張層は画素領域符号化または差分領域符号化を用いて符号化され得る。画素領域符号化において、拡張層画素に関する入力画素は、非SVC HEVC層については符号化され得る。一方、差分領域符号化において、拡張層に関する差分値が符号化され得る。差分値は、拡張層に関する入力画素と対応するスケールされた基本層の再構成された画素の間の差分であり得る。こういった差分値は、差分領域動き補償のために動き補償において用いられ得る。
[0031]差分領域を用いるインター符号化に関して、現在の予測ブロックは、拡張層基準ピクチャ内の対応する予測ブロックサンプルとスケールされた基本層基準ピクチャ内の対応する予測ブロックサンプルの間の差分値に基づいて決定される。差分値は差分予測ブロックと称され得る。協置基本層再構成サンプルは、拡張層予測サンプルを取得するために差分予測ブロックに加えられる。
[0032]しかし、階層間予測における差分領域動き補償を用いることは、動き推定および動き補償が画素領域と差分領域の両方にしばしば用いられるので、動き推定および動き補償の2つのセットを導入する。動き推定および動き補償の2つのセットを導入することは、より高いバッファと計算コストにつながる可能性があり、それはエンコーダまたはデコーダにとって実用的で無い。さらに、動きベクトルの2つのセットを符号化することは、動きベクトルの2つのセットが異なる属性をもち、ならびに符号化ユニット(CU)レベルでインターリーブされるときに動きフィールドが不規則になり得るので、符号化効率を低下し得る。さらに、差分領域における動き推定は、基本層と拡張層が同じ動きを共有することを求める。さらに、2つの階層間のディファレンシャルピクチャの導出が各層の十分に再構成されたピクチャに基づくので、差分領域動き補償は、単一ループデコーディングを用いて動作しない。したがって、差分領域動き補償を用いる場合の動き推定および動き補償の2つのセットを持つ際に冗長性を避けることは有利になるだろう。同様に、単一ループデコーディングの際に差分領域動き補償を拡張することは有利になる。
[0033]本開示に記載された技術は、SVCにおける階層間残差予測と差分領域動き補償に関する課題に対応し得る。技術は、汎用残差予測(GRP)フレームワーク内で適用され得る。上記で説明されたように、階層間残差予測は、現在のビデオユニット、例えば、ブロックまたはフレームを予測する際に基準層の残差を用いる。汎用残差予測において、現在のビデオユニットの階層間残差予測は、現在の層の残差、現在の層の時間予測、および基準層の残差に基づき得る。基準層の残差は、重み付け因子によって調整され得る。重み付け因子は、種々のタイプの情報に基づき、ならびに種々のタイプの情報を含み得る。こういった情報の例は、重み付け候補、重み付けステップ、重み付けインデックス、および重み付けテーブルの数字を含み得る。
[0034]本開示の観点にしたがったGRPフレームワークは、重み付け因子を抱合することによって種々のタイプの残差予測に適合し得る。適切なに重み付け因子を調整することは、残差予測に十分な符号化利得をもたらし得る。さらに、該GRPフレームワークにおいて、残差予測は、従来の残差予測における基本層では必ずしも無い基準層を用いて実行され得る。例えば、基準層は、現在の拡張層から抽出され得る。該GRPはまた、重み付け因子が1に設定される時に従来の残差予測に適合し得る。該GRPフレームワークは、単一ループデコーディングとマルチループデコーディングの両方と共に用いられ得る。さらに、該GRPフレームワークにおいて、差分領域における動き推定は必須でない場合もあり、それによって、現在の層と拡張層は、動き推定のために同じ動きを共有しなくても良い。該GRPフレームワークは、多くの異なるタイプの残差予測に適用され得、ならびに式(1)において定義されたような従来の残差予測と差分領域動き補償は、該GRPフレームワークを用いる2つの特定のシナリオである。該技術は、HEVCのスケーラブル拡張における動き補償の性能を向上し得、ならびにHEVCの3Dビデオ符号化拡張にも適用され得る。
[0035]新規のシステム、装置、および方法の様々な観点は、添付の図面について下記でさらに詳細に説明される。しかし、本開示は、多くの異なる形式において具体化されるが、本開示を通して表されるいずれかの特定の構造または機能に限定されると解釈されるべきではない。むしろ、これらの観点は、本開示が綿密で完璧であり、および当業者に対して本開示の範囲を十分に伝えるために提供される。ここでの教示に基づいて、当業者は、本開示の範囲が本願のいずれかの他の観点から独立して、または組み合わせて実施されようがなかろうが、ここで開示された新規のシステム、装置、および方法のいずれかの観点をカバーすることを意図していることを評価するべきである。例えば、装置は実装され、または、方法はここで説明される観点のうちのいくつかを用いて実施され得る。さらに、本願の範囲は、他の構造、機能、またはここで説明される本願の様々な観点に加えたまたはそれ以外の構造と機能を用いて実施されるこういった装置、または方法をカバーすることを意図している。ここで開示されたいずれの観点も、請求項の1つまたは複数の要素によって具体化され得ることが理解されるべきである。
[0036]特定の観点はここに記載されたが、これらの観点の多くの変形および並べ替えは本開示の範囲内である。好適な観点のうちのいくつかの利益および利点が述べられるが、本開示の範囲は、特定の利益、使用、または目的に限定されることを意図していない。むしろ、本開示の観点は、異なる無線技術、システム構成、ネットワーク、および送信プロトコルに対して広義に適用可能であることを意図しており、それらのうちのいくつかは、図面内の例および下記の好適な観点の説明における具体例によって示される。詳細な説明および図面は、添付の請求項およびそれらの等価物によって定義される本開示の範囲を限定するというよりはむしろ本開示の単なる例示にすぎない。
ビデオエンコーディングおよびデコーディングシステム
[0037]図1は、本開示に記載された観点にしたがった技術を利用し得るビデオエンコーディングおよびデコーディングシステムの例を示すブロック図である。図1に示されるように、システム10は、宛先デバイス14によって後にデコードされるエンコードされたビデオデータを提供するソースデバイス12を含む。特に、ソースデバイス12は、コンピュータ可読媒体16を介して宛先デバイス14にビデオデータを提供する。ソースデバイス12と宛先デバイス14は、デスクトップコンピュータ、ノートブック(例えばラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォン、のようなテレフォンハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む広範囲のデバイスのうちのいずれかを備え得る。場合によって、ソースデバイス12と宛先デバイス14は、無線通信のために装備され得る。
[0038]宛先デバイス14は、コンピュータ可読媒体16を介してデコードされるエンコードされたビデオデータを受信し得る。コンピュータ可読媒体16は、ソースデバイス12から宛先デバイス14へエンコードされたビデオデータを移動することができる任意のタイプの媒体またはデバイスを備え得る。一例において、コンピュータ可読媒体16は、リアルタイムにエンコードされたビデオデータを直接宛先デバイス14へ送信することをソースデバイス12可能にするための通信媒体を備え得る。エンコードされたビデオデータは、無線通信プロトコルのような通信標準にしたがって変調され、ならびに宛先デバイス14へ送信される。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物質の送信路のような、任意の無線または有線の通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、広域ネットワーク、またはインターネットのようなグローバルネットワークといったパケットベースのネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を容易にするために有用であり得るルータ、スイッチ、基地局、またはいずれか他の機器を含み得る。
[0039]いくつかの例において、エンコードされたデータは、出力インターフェース22から記憶デバイス(不図示)へ出力され得る。同様に、エンコードされたデータは、入力インターフェース28によって記憶デバイスからアクセスされ得る。記憶デバイスは、ハードドライブ、ブルーレイディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または不揮発性メモリ、またはエンコードされたビデオデータを記憶するためのいずれか他の適切なデジタル記憶媒体のような様々な分散型または局所的にアクセスされるデータ記憶媒体のうちのいずれかを含み得る。さらなる例において、記憶デバイスは、ソースデバイス12によって生成されたエンコードされたビデオを記憶し得るファイルサーバまたは別の中間記憶デバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードによって記憶デバイスから記憶されたビデオデータにアクセスし得る。ファイルサーバは、エンコードされたビデオデータを格納し、およびそのエンコードされたビデオデータを宛先デバイス14に送信可能な任意のタイプのサーバであり得る。ファイルサーバの具体例は、ウェブサーバ(例えば、ウェブサイト用)、FTPサーバ、ネットワーク接続ストレージ(NSA)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準のデータ接続を経由してエンコードされたビデオデータにアクセスし得る。これは、ファイルサーバに格納されたエンコードされたビデオデータにアクセスするのに適した無線チャンネル(例えば、Wi−Fi接続)、有線接続(例えば、DSL、ケーブルモデムなど)、または、その両方の組合せを含み得る。記憶デバイスからのエンコードされたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0040]本開示の技術は、必ずしも無線機器または環境に限定されるものではない。この技術は、無線テレビ放送、ケーブルテレビ送信、衛星テレビ送信、HTTPを経由する動的適応ストリーミング(DASH)のようなインターネットストリーミングビデオ送信、データ記憶媒体上でエンコードされるデジタルビデオ、データ記憶媒体上に記憶されるデジタルビデオのデコーディング、または他のアプリケーションのような様々なマルチメディアアプリケーションのうちのいずれかを支援するビデオ符号化に適用され得る。いくつかの例において、システム10は、ビデオストリーミング、ビデオの再生、ビデオブロードキャスティング、および/またはビデオ電話のような機器を支援するために、一方向または双方向のビデオ送信を支援するように構成され得る。
[0041]図1の例において、ソースデバイス12は、ビデオソース18、ビデオエンコーダ20、および出力インターフェース22を含む。宛先デバイス14は、入力インターフェース28、ビデオデコーダ30、およびディスプレイデバイス32を含む。本開示にしたがって、ソースデバイス12のビデオエンコーダ20は、複数の標準または標準の拡張に準拠するビデオデータを含むビットストリームを符号化するための技術を適用するように構成され得る。他の例において、ソースデバイスと宛先デバイスは、他の構成要素または配置を含み得る。例えば、ソースデバイス12は、外部のカメラのような外部のビデオソース18からビデオデータを受信し得る。同じく、宛先デバイス14は、統合されたディスプレイデバイスを含むよりむしろ、外部のディスプレイデバイスとインターフェースで接続し得る。
[0042]図1の例示的なシステム10は、単なる1つの例である。現在のブロックのために動きベクトル予測変数に関する候補リスト用の候補を決定する技術は、デジタルビデオエンコーディングおよび/またはデコーディングデバイスによって実行され得る。一般的に、本開示の技術は、ビデオエンコーディングデバイスによって実行されるが、この技術は、通常「CODEC」と称されるビデオエンコーダ/デコーダによっても実行され得るさらに、本開示の技術は、ビデオプレプロセッサによっても実行され得る。ソースデバイス12と宛先デバイス14は単に、ソースデバイス12が、宛先デバイス14への送信のために符号化されたビデオデータを生成する例えば符号化デバイスの例である。いくつかの例において、デバイス12、14は、デバイス12、14のそれぞれがビデオエンコーディングとデコーディングの構成要素を含むために、実質的に対称的に動作し得る。したがって、システム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオ電話技術のためのビデオデバイス12、14の間の一方向または双方向のビデオ送信を支援し得る。
[0043]ソースデバイス12のビデオソース18は、ビデオカメラ、予め取得したビデオを含むビデオアーカイブ、および/またはビデオコンテンツの提供者からビデオを受信するためのビデオフィードインタフェースのようなビデオ取得デバイスを抱合し得る。さらなる代替として、ビデオソース18は、ソースビデオのようなコンピュータグラフィックスベースのデータ、またはライブビデオ、アーカイブされたビデオ、およびコンピュータ生成されたビデオの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12と宛先デバイス14は、いわゆるカメラ電話またはビデオ電話を形成し得る。しかし、上述したとおり、本開示に記載された技術は、一般に、ビデオ符号化に適用可能であり得、および無線および/または有線アプリケーションに適用可能であり得る。それぞれの場合において、取得されたか、予め取得されたか、あるいはコンピュータ生成されたビデオは、ビデオエンコーダ20によってエンコードされ得る。エンコードされたビデオ情報は次に、コンピュータ可読媒体16に出力インターフェース22によって出力され得る。
[0044]コンピュータ可読媒体16は、無線ブロードキャストまたは有線ネットワーク送信のような一時的媒体、またはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、または他のコンピュータ可読媒体のような記憶媒体(すなわち、非一時的な記憶媒体)を含み得る。いくつかの例において、ネットワークサーバ(不図示)は、ソースデバイス12からエンコードされたビデオデータを受信し、およびネットワーク送信、直接有線の通信、などを介して、宛先デバイス14へエンコードされたビデオデータを提供し得る。同様に、ディスクスタンピング機能のような媒体作成機能の計算デバイスは、ソースデバイス12からエンコードされたビデオデータを受信し、およびエンコードされたビデオデータを抱合するディスクを作成し得る。したがって、コンピュータ可読媒体16は、種々の例において、種々の形式の1つまたは複数のコンピュータ可読媒体を含むと理解され得る。
[0045]宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義されるシンタックス情報を含み得、その情報は、ブロックおよび他の符号化ユニット例えば、GOPの特徴および/または処理を記述するシンタックスエレメントを含むビデオデコーダ30によっても用いられる。ディスプレイデバイス32は、ユーザにデコードされたビデオデータを表示し、およびカソードレイチューブ(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはいずれか別のタイプのディスプレイデバイスのような様々なディスプレイデバイスのいずれかを備え得る。
[0046]ビデオエンコーダ20とビデオデコーダ30は、現在開発中の高機能ビデオ符号化(HEVC)標準のようなビデオ符号化標準にしたがって動作し得、およびHEVCテストモデル(HM)に準拠し得る。代替として、ビデオエンコーダ20とビデオデコーダ30は、ITU−T H.264標準のような他の専有的に定める標準または業界の標準にしたがって動作し得、代替として、MPEG−4、パート10、先進ビデオ符号化(AVC)またはこういった標準の拡張と称される。しかし、本開示の技術は、いずれか特定の符号化標準に限定されることはなく、上記に挙げられた標準のいずれかを含むがそれらに限定されることはない。ビデオ符号化標準の他の例はMPEG−2とITU−T H.263を含む。図1には図示されていないが、いくつかの観点において、ビデオエンコーダ20とビデオデコーダ30はそれぞれ音声エンコーダおよびデコーダと統合され得、および共通のデータストリームまたは別々のデータストリームにおいて音声とビデオの両方のエンコーディングを扱うために、適切なMUX−DEMUXユニット、あるいは他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコルまたはユーザデータグラムプロトコル(UDP)のような他のプロトコルに準拠し得る。
[0047]ビデオエンコーダ20とビデオデコーダ30は、それぞれ1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、アプリケーション特定集積回路(ASIC)フィールド・プログラマブル・ゲイト・アレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せのような様々な適切なエンコーダ回路のいずれかとして実装され得る。この技術がソフトウェアに部分的に実装される場合、デバイスは、本開示の技術を実行するために、ソフトウェアへの命令を適切な非一時的なコンピュータ可読媒体に記憶し、および1つまたは複数のプロセッサを用いてハードウェア内の命令を実行し得る。ビデオエンコーダ20とビデオデコーダ30のそれぞれは、1つまたは複数のエンコーダまたはデコーダ内に含まれ得、それらのうちのいずれかが、各デバイスに一体化されたエンコーダ/デコーダ(CODEC)の一部として統合され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラー電話のような無線通信デバイスを備え得る。
[0048]JCT−VCは、HEVC標準の開発に取り組んでいる。HEVC標準化の試みは、HEVCテストモデル(HM)と称されるビデオ符号化デバイスの発展型モデルに基づく。HMは、例えば、ITU−T H.264/AVCにしたがった既存のデバイスと比較して、ビデオ符号化デバイスの種々の付加的な機能を仮定する。例えば、H.264が9種類のイントラ予測エンコーディングモードを提供する一方で、HMは、33種類ものイントラ予測エンコーディングモードを提供し得る。
[0049]一般的に、HMの作業モデルは、ビデオフレームまたはピクチャが一連のツリーブロックまたはルマおよびクロマの両方のサンプルを含む最大符号化ユニット(LCU)に分割され得ることを記載している。ビットストリーム内のシンタックスデータは、画素の数という点で最大符号化ユニットであるLCUのためのサイズを定義し得る。スライスは、符号化順に多数の連続したツリーブロックを含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスに区分され得る。各ツリーブロックは、四分木にしたがって符号化ユニット(CU)に分割され得る。一般的に、四分木データ構造は、CU毎に1つのノードを含み、ツリーブロックはルートノードに対応する。CUが4つのサブCUに分割される場合、CUに対応するノードは、4つの葉ノードを含み、葉ノードのそれぞれは、サブCUのうちの1つに対応する。
[0050]四分木データ構造の各ノードは、対応するCUにシンタックスデータを提供し得る。例えば、四分木内のノードは、ノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUに関するシンタックスエレメントは再帰的に定義され得、およびCUがサブCUに分割されるかどうかに依存し得る。CUがこれ以上分割されない場合、それは葉CUと称される。本開示において、元の葉CUの明示的な分割が無いとしても、葉CUの4つのサブCUはやはり葉CUと称されるだろう。例えば、16x16サイズのCUがこれ以上分割されない場合、16x16のCUが全く分割されなかったとしても、4つの8x8のサブCUも葉CUと称されるだろう。
[0051]CUは、CUがサイズの区別を持たないことを除いて、H.264の標準のマクロブロックと類似の目的を有する。例えば、ツリーブロックは4つの子ノード(サブCUとも称される)に分割され得、および各子ノードは、順に親ノードになり得、および別の4つの子ノードに分割され得る。四分木の葉ノードと称される最後の分割されない子ノードは、葉CUとも称される符号化ノードを備える。符号化されたビットストリームと関連付けられるシンタックスデータは、ツリーブロックが分割され得る最大回数をも定義し得、それは最大CU深さとも称され、および符号化ノードの最小サイズも定義し得る。したがって、ビットストリームはまた、最小符号化ユニット(SCU)を定義し得る。本開示は、HEVCのコンテキストにおけるCU、PU、またはTUのうちのいずれか、あるいは他の標準(例えば、H.264/AVCにおけるそれらのマクロブロックおよびサブブロック)のコンテキストにおける類似のデータ構造を指すために、用語「ブロック」を用いる。
[0052]CUは符号化ノードを含み、および予測ユニット(PU)と変換ユニット(TU)は符号化ノードと関連付けられる。CUのサイズは符号化ノードのサイズに対応し、および正方形でなければならない。CUのサイズは、8x8画素から最大64x64画素以上を有するツリーブロックのサイズまでの範囲であり得る。各CUは1つまたは複数のPUおよび1つまたは複数のTUを抱合し得る。CUと関連付けられるシンタックスデータは、例えば、CUを1つまたは複数のPUに分割することを記述し得る。分割モードは、CUがスキップあるいはダイレクトモードでエンコードされるか、イントラ予測モードでエンコードされるか、あるいはインター予測モードでエンコードされるかによって異なり得る。PUは、非正方形になるように区分され得る。CUと関連付けられるシンタックスデータは、例えば、四分木にしたがってCUを1つまたは複数のTUへ分割することを記述し得る。TUは、正方形または非正方形(例えば、長方形)であり得る。
[0053]HEVC標準はTUにしたがった変形を可能し、それはそれぞれのCUによって異なり得る。TUは、常にこうであるとは限らないが、通常、分割されたLCUに関して定義された所与のCU内のPUのサイズに基づいてサイズが決められる。TUは通常、PUと同じサイズかあるいはそれより小さい。いくつかの例において、CUに対応する残差サンプルは、「残差四分木」(residual quad tree)(RQT)として知られる四分木構造を用いてより小さいユニットに分割され得る。RQTの葉ノードは、変換ユニット(TU)と称され得る。TUと関連付けられる画素差分値は、変換係数を生成するために変換され得、それらの変換係数は、量子化され得る。
[0054]葉CUは、1つまたは複数の予測ユニット(PU)を含み得る。一般的に、PUは、対応するCUの全てあるいは一部に対応する空間領域を表し、およびPUに関する基準サンプルを検索するためのデータを含み得る。さらに、PUは、予測と関連するデータを含む。例えば、PUがイントラモード(intra−mode)でエンコードされる場合、PUに関するデータは残差四分木(RQT)に含まれ得、それは、PUに対応するTUに関するイントラ予測モードを記述するデータを含み得る。別の例として、PUがインターモード(inter−mode)でエンコードされる場合、PUはPUに関する1つまたは複数の動きベクトルを定義するデータを含み得る。PUに関する動きベクトルを定義するデータは、例えば、動きベクトルの水平構成要素、動きベクトルの垂直構成要素、動きベクトルに関する解像度(例えば、4分の1画素精度または8分の1画素精度)、動きベクトルが指し示す基準ピクチャ、および/または動きベクトルに関する基準ピクチャリスト(例えば、リスト0、リスト1、またはリストC)を記述し得る。
[0055]1つまたは複数のPUを有する葉CUはまた、1つまたは複数の変換ユニット(TU)を含み得る。変換ユニットは、上記で論じられたように、RQT(TU四分木構造とも称される)を用いて特定され得る。例えば、分割フラグは、葉CUが4つの変換ユニットに分割されるかどうかを示し得る。次に、各変換ユニットはさらにサブTUに分割され得る。TUがこれ以上分割されない場合、それは葉TUと称される。一般的に、イントラ符号化に関して、葉CUに属する全ての葉TUは、同じイントラ予測モードを共有する。すなわち、同じイントラ予測モードは一般的に、葉CUの全てのTUに関する予測された値を計算するために適用される。イントラ符号化に関して、ビデオエンコーダは、TUに対応するCUの一部と元のブロックの間の差分としてイントラ予測モードを用いて各葉TUに関する残差値を計算し得る。TUは、PUのサイズに必ずしも限定されることはない。したがって、TUは、PUよりも大きいか、あるいは小さくなり得る。イントラ符号化に関して、PUは、同じCUに関して対応する葉TUと共に割り当てられ得る。いくつかの例において、葉TUの最大のサイズは対応する葉CUのサイズに対応し得る。
[0056]さらに、葉CUのTUはまた、残差四分木(RQT)と称される各四分木データ構造と関連付けられ得る。すなわち、葉CUは、葉CUがどのようにTUに分割されるか示す四分木を含み得る。TU四分木のルートノードは、一般的に葉CUに対応し、その一方で、CU四分木のルートノードは一般的に、ツリーブロック(またはLCU)に対応する。分割されないRQTのTUは葉TUと称される。一般的に、本開示は、特に断りの無い限り、それぞれ葉CUと葉TUを指すために、用語CUおよびTUを用いる。
[0057]ビデオシーケンスは通常、一連のビデオフレームまたはピクチャを含む。ピクチャのグループ(GOP)は一般的に、一連の1つまたは複数のビデオピクチャを備える。GOPはGOPのヘッダ、1つまたは複数のピクチャのヘッダ、または他のいずれかの場所にシンタックスデータを含み、それは、GOPに含まれた多数のピクチャを記述する。ピクチャの各スライスは、各スライスに関するエンコーディングモードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は通常、ビデオデータをエンコードするために個々のビデオスライス内のビデオブロック上で動作する。ビデオブロックはCU内の符号化ノードに対応し得る。ビデオブロックは、固定されたまたは変化するサイズを有し、および特定された符号化標準によってサイズが異なり得る。
[0058]例として、HMは、様々なサイズのPUにおける予測を支援する。特定のCUのサイズが2Nx2Nであると仮定すると、HMは、2Nx2NまたはNxNのサイズのPUにおけるイントラ予測、および2Nx2N、2NxN、Nx2N、またはNxNのサイズの対称なPUにおけるインター予測を支援する。HMはまた、2NxnU、2NxnD、nLx2N、およびnRx2NのサイズのPUにおけるインター予測のための非対称な分割を支援する。非対称な分割において、CUの1つの方向は分割されないが、他の方向は25%と75%に分割される。25%の分割に対応するCUの部分は、「Up」、「Down」、「Left」、または「Right」の表示が後に続く「n」によって示される。したがって、例えば「2NxnU」は、上部で2Nx0.5NのPUおよび下部で2Nx1.5NのPUを用いて水平に分割される2Nx2NのCUを指す。
[0059]本開示において、「NxN」および「N掛けるN」は、例えば16x16画素あるいは16掛ける16画素の垂直および水平寸法の寸法を単位としてビデオブロックの画素の寸法を指すために置換可能に用いられ得る。一般的に、16x16ブロックは垂直方向に16画素(y=16)および水平方向に16画素(x=16)を有することになる。同じく、NxNのブロックは一般的に、垂直方向にN個の画素および水平方向にN個の画素を有し、そこでN個は非負整数の値を表す。ブロック内の画素は、行と列に配列され得る。さらに、ブロックは、垂直方向と水平方向に必ずしも同じ画素の数を有する必要はない。例えば、ブロックはNxMの画素を備え得、そこで、Mは必ずしもNと等しくない。
[0060]CUのPUを用いるイントラ予測またはインター予測符号化に続いて、ビデオエンコーダ20は、CUのTUに関する残差データを計算し得る。PUは、空間領域(画素領域とも称される)において予測画素データを生成する方法またはモードを記述するシンタックスデータを備え得、およびTUは、例えば、ディスクリートコサイン変換(DCT)、整数変換、ウェイブレット変換、または残差ビデオデータに概念上類似する変換などの変換アプリケーションに従う変換領域において係数を備え得る。残差データは、エンコードされなかったピクチャの画素とPUに対応する予測値の間の画素差に対応し得る。ビデオエンコーダ20は、CUに関する残差データを含むTUを形成し、次にCUに関する変換係数を生成するためにTUを変換し得る。
[0061]変換係数を生成するための任意の変換の次に、ビデオエンコーダ20は変換係数の量子化を実行し得る。量子化とはもっとも広い通常の意味を持つように意図された広義の用語である。1つの実施例において、量子化は、変換係数が、さらなる圧縮を提供する係数を表すために用いられるデータの量をできるだけ低減するために量子化される過程を指す。量子化の過程は、係数のうちのいくつかまたは全てと関連付けられるビット深さを低減し得る。例えば、nビットの値は量子化中にmビットの値に四捨五入され得、そこにおいて、nはmより大きい。
[0062]量子化の次に、ビデオエンコーダは変換係数を走査し、量子化された変換係数を含む2次元マトリックスから1次元ベクトルを生成し得る。走査は、アレイの前方により高いエネルギー(それ故により低い周波数)係数を設定し、およびアレイの後方により低いエネルギー(それ故により高い周波数)係数を設定するように設計され得る。いくつかの例において、ビデオエンコーダ20は、エントロピーエンコードされ得るシリアル化されたベクトルを生成するために、量子化された変換係数を走査するために既定義の走査順を利用し得る。他の例において、ビデオエンコーダ20は適応可能な走査を実行し得る。1次元ベクトルを形成するために量子化された変換係数を走査した後、ビデオエンコーダ20は、例えば、コンテキスト適応可変長符号化(CAVLC)、コンテキスト適応二値算術符号化(CABAC)、シンタックスベースのコンテキスト適応二値算術符号化(SBAC)、確立区間分割エントロピー(PIPE)符号化、または別のエントロピーエンコーディング方法論にしたがって、1次元ベクトルをエントロピーエンコードし得る。ビデオエンコーダ20はまた、ビデオデータをデコーディングする際にビデオデコーダ30によって用いるためのエンコードされたビデオデータと関連付けられるシンタックスエレメントをエントロピーエンコードし得る。
[0063]CABACを実行するために、ビデオエンコーダ20は、送信されるシンボルにコンテキストモデル内のコンテキストを割り当て得る。コンテキストは例えば、シンボルの隣接する値が非ゼロか否かに関する。CAVLCを実行するために、ビデオエンコーダ20は、送信されるシンボルに関する可変長符号を選択し得る。VLC内のコードワードは、比較的より短いコードがより可能性のあるシンボルに対応する一方で、より長いコードがより可能性のないシンボルに対応するように解釈され得る。このように、VLCの使用は、例えば、送信される各シンボルに等しい長さのコードワードを使用することを通じてビット節約を実現し得る。可能性判定は、シンボルに割り当てられたコンテキストに基づき得る。
[0064]ビデオエンコーダ20は、例えば、フレームヘッダ、ブロックヘッダ、スライスヘッダ、またはGOPヘッダ内で、ビデオデコーダ30にブロックベースのシンタックスデータ、フレームベースのシンタックスデータ、およびGOPベースのシンタックスデータのようなシンタックスデータをさらに送り得る。GOPシンタックスデータは、各GOP内の多数のフレームを記述し得、およびフレームシンタックスデータは、対応のフレームをエンコードするために用いられるエンコーディング/予測モードを示し得る。
ビデオエンコーダ
[0065]図2は、本開示に記載された観点にしたがった技術を実施し得るビデオエンコーダの例を示すブロック図である。ビデオエンコーダ20のユニットのうちの1つまたは複数は、本開示の技術のうちのいずれかまたは全てを実行するように構成され得る。1つの例として、変換処理ユニット52および逆変換ユニット60は、図8について下記で説明される本開示に記載された適応変換技術のうちのいずれかまたは全てを実行するように構成され得る。しかし、本開示の観点はそれに限定されることはない。いくつかの例において、本開示に記載された技術は、ビデオエンコーダ20の種々の構成要素の間で共有され得る。1つの例として、モード選択ユニット40に加えて、あるいはその代わりに、本開示に記載された技術のうちのいずれかまたは全てを実行するように構成され得る。
[0066]ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラおよびインター符号化を実行し得る。イントラ符号化は、所与のビデオフレームまたはピクチャの範囲内でビデオ内の空間冗長性を低減または除去するための空間予測に依存する。インター符号化は、ビデオシーケンスの隣接するフレームまたはピクチャの範囲内でビデオ内の時間の冗長性を低減または除去するために時間予測に依存する。イントラモード(Iモード)とは、種々の空間ベースの符号化モードのいずれかを指し得る。単方向予測(Pモード)または双方向予測(Bモード)のようなインターモードは、種々の時間ベースの符号化モードのいずれかを指し得る。
[0067]図2に示されるように、ビデオエンコーダ20は、エンコードされるビデオフレーム内の現在のビデオブロックを受信する。図2の例において、ビデオエンコーダ20は、モード選択ユニット40、基準フレームメモリ64、アナログ加算器50、変換処理ユニット52、量子化ユニット54、およびエントロピーエンコーディングユニット56を含む。モード選択ユニット40は、順に、動き補償ユニット44、動き推定ユニット42、イントラ予測ユニット46、および区分ユニット48を含む。ビデオブロックの再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58、逆変換ユニット60、およびアナログ加算器62を含む。非ブロック化フィルタ(図2にでは不図示)はまた、再構成されたビデオからブロックノイズアーチファクトを除去するように、ブロック境界にフィルタをかけるために含まれ得る。所望される場合、非フロック化フィルタは通常、アナログ加算器62の出力にフィルタをかけることもある。追加のフィルタ(ループ内またはループの後)はまた、非フロック化フィルタに加えて用いられ得る。こういったフィルタは簡潔のために不図示であるが、所望される場合、アナログ加算器50の出力にフィルタをかけ得る(ループ内フィルタとして)。
[0068]エンコーディングの過程の間、ビデオエンコーダ20は、符号化されるビデオフレームまたはスライスを受信する。フレームまたはスライスは、複数のビデオブロックに分割され得る。動き推定ユニット42と動き補償ユニット44は、時間予測を提供するために、1つまたは複数の基準フレーム内の1つまたは複数のブロックと比較して受信されたビデオブロックのインター予測符号化を実行する。イントラ予測ユニット46は代替として、空間予測を提供するために符号化されるブロックと同じフレームまたはスライス内の1つまたは複数の隣接ブロックと比較して、受信されたビデオブロックのイントラ予測符号化を実行し得る。ビデオエンコーダ20は、例えば、ビデオデータの各ブロックに適切な符号化モードを選択するために複数の符号化パスを実行し得る。
[0069]さらに、区分ユニット48は、前の符号化パス内の前の区分スキームの評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。例えば、区分ユニット48は、フレームまたはスライスを複数のLCUに初めに区分し得、およびレート歪み(rate−distortion)解析(例えば、レート歪み最適化)に基づいて、各LCUをサブCUに区分し得る。モード選択ユニット40はさらに、LCUをサブCUへ区分することを示す四分木データ構造を生成し得る。四分木の葉ノードCUは、1つまたは複数のPUと1つまたは複数のTUを含み得る。
[0070]モード選択ユニット40は、例えば、エラー結果に基づいて、イントラまたはインター符号化モードのうちの1つを選択し、そして残差ブロックデータを生成するためにアナログ加算器50におよび基準フレームとして使用するためのエンコードされたブロックを再構成するためにアナログ加算器62に結果としてのイントラまたはインター符号化ブロックを提供する。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、区分情報、および他のこういったシンタックス情報のようなシンタックスエレメントをエントロピーエンコーディングユニット56に提供する。
[0071]動き推定ユニット42と動き補償ユニット44は、概念的な目的で別々に例示されるが、高度に統合され得る。動き推定ユニット42によって実行される動き推定は、動きベクトルを生成する過程であり、動き推定は、ビデオブロックに関する動きを推定する。動きベクトルは、例えば、現在のフレーム(または他の符号化されたユニット)内で符号化中の現在のブロックと比較した基準フレーム(または他の符号化されたユニット)内の予測ブロックと比較した現在のピクチャまたはビデオフレーム内のビデオブロックのPUの置換を示し得る。予測ブロックとは、画素差の点から、符号化されるべきブロックに正確に一致していることがわかるブロックであり、それは、絶対差分値(SAD)の和、正方差(SSD)の和、または他の差分メトリックによって決定され得る。いくつかの例において、ビデオエンコーダ20は、基準フレームメモリ64内に記憶された基準ピクチャのサブ整数画素位置に関する値を計算し得る。例えば、ビデオエンコーダ20は、基準ピクチャの4分の1画素位置、8分の1画素位置、または他の分数画素位置の値を補完し得る。それ故に、動き推定ユニット42は、フル画素位置と分数画素位置とを比較して動き検出を実行し、および分数画素精度を用いて動きベクトルを出力する。
[0072]動き推定ユニット42は、PUの位置を基準ピクチャの予測ブロックの位置と比較することによって、インター符号化したスライス内のビデオブロックのPUに関する動きベクトルを計算する。基準ピクチャは、第1の基準ピクチャリスト(リスト0)または第2の基準ピクチャリスト(リスト1)から選択され得、ピクチャリストのそれぞれは、基準フレームメモリ64内に記憶された1つまたは複数の基準ピクチャを識別する。動き推定ユニット42は、エントロピーエンコーディングユニット56と動き補償ユニット44へ、算出された動きベクトルを送る。
[0073]動き補償ユニット44によって実行された動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて、予測ブロックを取り出すことまたは生成することを抱合し得る。さらに、動き推定ユニット42と動き補償ユニット44は、いくつかの例において、機能的に統合され得る。現在のビデオブロックのPUに関する動きベクトルを受信すると、動き補償ユニット44は、基準ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックを特定し得る。アナログ加算器50は、下記で論じられるように、符号化中の現在のビデオブロックの画素値から予測ブロックの画素値を差し引き、画素差分値を形成することにより、残差ビデオブロックを形成する。一般的に、動き推定ユニット42は、ルマ構成要素と比較して動き推定を実行し、および動き補償ユニット44は、クロマ構成要素とルマ構成要素の両方に関するルマ構成要素に基づいて算出された動きベクトルを用いる。モード選択ユニット40はまた、ビデオスライスのビデオブロックをデコードする際に、ビデオデコーダ30が用いるビデオブロックとビデオスライスと関連付けられるシンタックスエレメントを生成し得る。
[0074]イントラ予測ユニット46は、上述したとおり、動き推定ユニット42と動き補償ユニット44によって実行されたインター予測の代わりとして、現在のブロックをイントラ予測しおよび算出し得る。特に、イントラ予測ユニット46は、現在のブロックをエンコードするために用いるイントラ予測モードを決定し得る。いくつかの例において、イントラ予測ユニット46は、例えばエンコーディングパスを分割する間、種々のイントラ予測モードを用いて現在のブロックをエンコードし得、およびイントラ予測ユニット46(またはいくつかの例におけるモード選択ユニット40)は、テストされたモードから用いるのに適切なイントラ予測モードを選択し得る。
[0075]例えば、イントラ予測ユニット46は、種々のテストされたイントラ予測モードに関するレート歪み解析を用いてレート歪み値を算出し、およびテストされたモードのうちの最適なレート歪みの特性を有するイントラ予測モードを選択し得る。レート歪み解析は一般的に、エンコードされたブロックを生成するために用いられるビットレート(すなわち、ビットの数)と同様に、エンコードされたブロックとエンコードされたブロックを生成するためにエンコードされた元のエンコードされなかったブロックの間の歪み(または誤差)の量を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックに関する最適なレート歪み値を提示しているかを判断するために、種々のエンコードされたブロックに関するレートと歪みから割合を算出し得る。
[0076]ブロックに関するイントラ予測モードを選択した後、イントラ予測ユニット46は、ブロックに関して選択されたイントラ予測モードを示す情報をエントロピーエンコーディングユニット56に提供し得る。エントロピーエンコーディングユニット56は、選択されたイントラ予測モードを示す情報をエンコードし得る。ビデオエンコーダ20は、複数のイントラ予測モードインデックステーブルと複数の修正されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも称される)を含み得る送信されたビットストリーム構成データ内に、種々のブロックに関するエンコーディングコンテキストの定義と、最も可能性のあるイントラ予測モードの指示と、各コンテキストを使用するための修正されたイントラ予測モードインデックステーブルとイントラ予測モードインデックステーブルを含み得る。
[0077]ビデオエンコーダ20は、符号化中の元のビデオブロックから、モード選択ユニット40からの予測データを差し引くことによって残差ビデオブロックを形成する。アナログ加算器50は、構成要素またはこの差し引き動作を実行する複数の構成要素を表す。変換処理ユニット52は、ディスクリートコサイン変換(DCT)または概念上類似する変換のような変換を、残差変換係数値を備えるビデオブロックを生成する残差ブロックに適用する。変換処理ユニット52は、DCTに概念上類似する他の変換を実行し得る。ウェイブレット変換、整数変換、サブ帯域変換、または他のタイプの変換もまた用いられる。いずれかの場合において、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、画素値領域からの残差情報を周波数領域のような変換領域へコンバートし得る。変換処理ユニット52は、図8について下記で説明される適応変換方法を実行するように構成され得る。
[0078]変換処理ユニット52は、生じた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、さらにビットレートを低減するために変換係数を量子化する。量子化の過程は、係数のうちのいずれかまたは全てと関連付けられるビット深さを減じ得る。量子化の程度は、量子化パラメータを調整することによって修正され得る。いくつかの例において、量子化ユニット54は次に、量子化された変換係数を含むマトリックスの走査を実行し得る。代替として、エントロピーエンコーディングユニット56は走査を実行し得る。
[0079]量子化に続いて、エントロピーエンコーディングユニット56は、量子化された変換係数をエントロピー符号化する。例えば、エントロピーエンコーディングユニット56は、コンテキスト適応可変長符号化(CAVLC)、コンテキスト適応バイナリ算術符号化(CABAC)、シンタックスベースのコンテキスト適応バイナリ算術符号化(SBAC)、確立区間区分エントロピー(PIPE)符号化、または別のエントロピーエンコーディング技術を実行し得る。コンテキストベースのエントロピーエンコ−ディングの場合において、コンテキストは隣接ブロックに基づき得る。エントロピーエンコーディングユニット56によるエントロピーエンコーディングに続いて、エンコードされたビットストリームは、別のデバイス(例えば、ビデオデコーダ30)に送信されるか、または後の送信または検索のためにアーカイブされ得る。
[0080]逆量子化ユニット58と逆変換ユニット60は、例えば、後に基準ブロックとして用いるために、画素領域内に残差ブロックを再構成するために、それぞれ逆量子化と逆変換を適用する。逆変換ユニット60は、図8について下記で説明される適応変換方法を実行するように構成され得る。
[0081]動き補償ユニット44は、基準フレームメモリ64の複数のフレームのうちの1つの予測ブロックに残差ブロックを追加することによって基準ブロックを算出し得る。動き補償ユニット44はまた、動き推定の際に使用するためのサブ整数画素値を算出するために、再構成された残差ブロックに1つまたは複数の補間フィルタを適用し得る。アナログ加算器62は、基準フレームメモリ64に記憶するために再構成されたビデオブロックを生成するために、動き補償ユニット44によって生成された動き補償された予測ブロックに再構成された残差ブロックを追加する。再構成されたビデオブロックは、後続のビデオフレーム内のブロックをインター符号化するための基準ブロックとして動き推定ユニット42と動き補償ユニット44によって用いられ得る。
ビデオデコーダ
[0082]図3は、本開示に記載された観点にしたがった技術を実施し得るビデオデコーダの例を示すブロック図である。ビデオデコーダ30のユニットのうちの1つまたは複数は、本開示の技術のうちのいずれかまたは全てを実行するように構成され得る。1つの例として、逆変換ユニット78は、図8について下記で説明されるように、本開示に記載された適応的変換技術のうちのいずれかまたは全てを実行するように構成され得る。しかし、本開示の観点は、それに限定されるものではない。いくつかの例において、本開示に記載された技術は、ビデオデコーダ30の種々の構成要素のうちで共有され得る。いくつかの例において、ビデオデコーダ30に加えて、あるいはその代わりに、本開示に記載れた技術のうちのいずれかまたは全てを実行するように構成され得る。
[0083]図3の例において、ビデオデコーダ30は、エントロピーデコーディングユニット70、動き補償ユニット72、イントラ予測ユニット74、逆量子化ユニット76、逆変換ユニット78、基準フレームメモリ82、およびアナログ加算器80を含む。ビデオデコーダ30は、いくつかの例において、ビデオエンコーダ20(例えば、図1および図2を参照のこと)と関連して説明されるエンコーディングパスと一般的に相互関係のあるデコーディングパスを実行し得る。動き補償ユニット72は、エントロピーデコーディングユニット70から受信された動きベクトルに基づいて予測データを生成し得、その一方で、イントラ予測ユニット74は、エントロピーデコーディングユニット70から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0084]デコーディング過程の間に、ビデオデコーダ30は、ビデオエンコーダ20から、エンコードされたビデオスライスのビデオブロックを表すエンコードされたビデオビットストリームと、関連するシンタックスエレメントを受信する。ビデオデコーダ30のエントロピーデコーディングユニット70は、量子化された係数、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックスエレメントを生成するために、ビットストリームをエントロピーデコードする。エントロピーデコーディングユニット70は、動きベクトルと他のシンタックスエレメントを動き補償ユニット72へ転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックスエレメントを受信し得る。
[0085]ビデオスライスがイントラ符号化(I)スライスとして符号化される場合、イントラ予測ユニット74は、信号で伝えられたイントラ予測モードと現在のフレームまたはピクチャの予めデコードされたブロックからのデータに基づいて、現在のビデオスライスのビデオブロックに関する予測データを生成し得る。ビデオフレームがインター符号化(例えばB、P、またはGPB)スライスとして符号化される場合、動き補償ユニット72は、動きベクトルとエントロピーデコーディングユニット70から受信された他のシンタックスエレメントに基づいて、現在のビデオスライスのビデオブロックに関する予測ブロックを作成する。予測ブロックは、基準ピクチャリストのうちの1つの内の基準ピクチャのうちの1つから作成され得る。ビデオデコーダ30は、基準フレームメモリ82に記憶された基準ピクチャに基づくデフォルトの再構成技術を用いて、基準フレームリスト、すなわちリスト0とリスト1を構成し得る。動き補償ユニット72は、動きベクトルと他のシンタックスエレメントを解析することによって現在のビデオスライスのビデオブロックに関する予測情報を決定し、およびデコード中の現在のビデオブロックに関する予測ブロックを生成するために予測情報を使用する。例えば、動き補償ユニット72は、ビデオスライスのビデオブロック、インター予測スライスのタイプ(例えば、Bスライス、Pスライス、またはGPBスライス)、スライスに関する1つまたは複数の基準ピクチャリストに関する再構成情報、スライスの各インターエンコードされたビデオブロックに関する動きベクトル、スライスの各インターエンコードされたビデオブロックに関するインター予測ステータス、および現在のビデオスライス内のビデオブロックをデコードするための他の情報を符号化するために用いられる予測モード(例えば、イントラまたはインター予測)を決定するために受信されたシンタックスエレメントのうちのいくつかを使用する。
[0086]動き補償ユニット72はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット72は、基準ブロックのサブ整数画素に関する補間値を算出するために、ビデオブロックのエンコーディングの間にビデオエンコーダ20によって用いられるような補間フィルタを用い得る。この場合、動き補償ユニット72は、受信されたシンタックスエレメントからビデオエンコーダ20によって用いられる補間フィルタを決定し、および予測ブロックを生成するために補間フィルタを用い得る。
[0087]逆量子化ユニット76は、例えば、ビットストリームに提供されおよびエントロピーデコーディングユニット70によってデコードされた量子化変換係数を逆量子化(inverse quantizes)、例えば、逆量子化(de-quantizes)する。逆量子化過程は、量子化程度、および同じく適用されるべき逆量子化の程度を決定するために、ビデオスライス内の各ビデオブロックに関してビデオデコーダ30によって算出された量子化パラメータQPを使用することを含み得る。
[0088]逆変換ユニット78は、画素領域内に残差ブロックを生成するための変換係数に、逆変換、例えば、逆DCT、逆整数変換、または概念上類似する逆変換の過程を適用する。逆変換ユニット78は、図8について下記で説明される適応変換方法を実行するように構成され得る。
[0089]動き補償ユニット72が、動きベクトルと他のシンタックスエレメントに基づいて現在のビデオブロックに関する予測ブロックを生成した後、ビデオデコーダ30を介した他のシンタックスエレメントは、動き補償ユニット72によって生成された対応する予測ブロックを用いて、逆変換ユニット78からの残差ブロックを加算することによって、デコードされたビデオブロックを形成する。アナログ加算器80とは、構成要素またはこの加算演算を実行する構成要素を表す。所望の場合、非ブロック化フィルタはまた、ブロッキネスアーチファクトを除去するためのデコードされたブロックにフィルタをかけるために適用され得る。他のループフィルタ(符号化ループ内、または符号化ループ後)はまた、画素遷移をスムーズにするために用いられ得、それ以外にはビデオ品質を向上する。所与のフレームまたはピクチャ内のデコードされたビデオブロックは次に、次の動き補償に用いられる基準ピクチャを記憶する基準ピクチャメモリ92に記憶される。基準フレームメモリ82はまた、図1のディスプレイデバイス32のようなディスプレイデバイスに後で表示するためにデコードされたビデオを記憶する。
スケーラブルビデオ符号化(SVC)
[0090]多次元スケーラビリティ400の1つの例が図4に示される。例示的な実施例において、スケーラビリティは、x軸に沿って示される時間(temporal)402(または時間(time))、y軸に沿って示される空間404、およびz軸にそって示される品質406の3次元で可能になる。時間402において、時間ディメンション、7.5Hz、15Hz、または30Hzなどの様々な値を有するが、それらに限定されないフレームレートが、時間スケーラビリティ(T)によって支援され得る。空間スケーラビリティ404(S)が支援されるとき、QCIF,CIF、および4CIF、などのような異なる解像度が可能になる。それぞれ特定の空間解像度とフレームレートに関して、SNR(信号対ノイズ比、または品質、Q)層406は、ピクチャの品質を向上するために加えられ得る。一度ビデオコンテンツが、こういったスケーラブル方法でエンコードされると、抽出ツールが、アプリケーション要求にしがって、実際にもたらされたコンテンツを適合させるために用いられ得、それは、例えば、クライアントおよび/または送信チャンネルのような様々な因子またはパラメータに依存し得る。図4に示された例において、各立方体408は、同じフレームレート(時間レベル)、空間解像度、およびSNR層を有するピクチャを抱合する。より良い表示は、それらの立方体408(例えば、ピクチャ)を任意の次元402、404、406に追加することによって実現され得る。組み合わされたスケーラビリティは、2つ、3つ、またはそれ以上の可能なスケーラビリティがある場合にサポートされる。
[0091]最下位空間410と品質412の層を使用するピクチャは、H.264/AVCと互換性がある。一般的に、最下位時間レベル414にあるピクチャは、時間の基本層を形成する。これらの最下位時間レベルピクチャは、より高位の時間レベルにあるピクチャを用いて拡張され得る。H.264/AVCと互換性のある層に加えて、種々の空間および/またはSNR拡張層が、空間および/または品質スケーラビリティを提供するために加えられ得る。SNRスケーラビリティは、品質スケーラビリティとも称される。各空間404またはSNR406拡張層それ自体は、H.264/AVCと互換性のある層と同じ時間スケーラビリティ構造を用いて、時間的にスケーラブルされ得る。1つの空間404またはSNR406拡張層に関して、それが依存するより低位の層は、その特定の空間またはSNR拡張層の基本層とも称される。
[0092]SVC符号化構造500の例が図5に示される。最下位の空間と品質層(QCIF解像度を有する、層0 502と層1 504におけるピクチャ)は、H.264/AVCと互換性がある。それらのうちで、最下位の時間レベルのそれらのピクチャは、図5の層0 502に示されるように、時間の基本層を形成する。この時間の基本層(層0 502)は、より高位の時間レベルのピクチャ(例えば、層1 504から層4 510まで、など)を用いて拡張され得る。H.264/AVC互換性層に加えて、種々の空間および/またはSNR拡張層は、空間および/または品質スケーラビリティを提供するために追加され得る。例えば、拡張層は、層2 506と同じ解像度を有するCIF解像度であり得る。具体例において、層3 508は、SNR拡張層(CIF、15Hz、512、Kbps)である。具体例に示されたように、各空間またはSNR拡張層自体は、H.264/AVCと互換性のある層と同じ時間スケーラビリティ構造を用いて時間的にスケーラブルされ得る。
[0093]さらに、拡張層は、空間解像度とフレームレートの両方を拡張し得る。例えば、層4 510は、15Hzから30Hzまでのフレームレートを含む4CIF拡張層を提供する。
[0094]図6に示されるように、同じ時間インスタンスにおける符号化されたスライスは、ビットストリーム順に連続しており、SVCのコンテンツ内に1つのアクセスユニット600(AU)を形成する。そして、それらのSVCアクセスユニット600は、表示順とは異なる可能性のある、および、例えば時間予測の関係によって決定されるデコーディング順に従う。
変換
[0095]ビデオ符号化の1つの実施例において、画像ブロックは初めに、再構成された時間的および/または空間的に隣接するブロック内の画素を用いて予測される。予測誤差(「残差」と称される場合もある)は、変換および量子化され得る。例えば、SがサイズN×Nの残差ブロックである場合、変換されたブロックKは、下記の通り、行列乗算を用いて抽出され得る。
そこにおいて、K、A、およびBはまた、サイズN×Nである。Aが垂直変換行列であり、およびBが水平変換行列である。いくつかの実施例において、AおよびBは、相互の転置行列である(例えば、B=A´であり、そこにおいて、「´」は転置行列を意味する)。他の実施例において、AおよびBは、相互の転置行列ではない。AおよびBが相互の転置行列である場合、前の式は下記の通りとなる。
[0096]各変換(AおよびB)は様々な変換のいずれかを含み得る。いくつかの実施例において、変換は、ディスクリートコサイン変換(DCT)、ディスクリートサイン変換(DST)、アダマール変換、ハール変換、などを含む。
イントラBLモード
[0097]スケーラブル符号化において、「イントラBLモード」と呼ばれる拡張層に関する特定の符号化モードがある。イントラBLモードにおいて、拡張層ブロックにおけるテクスチャは、基本層における対応する(「協置された」(co−located)と称される場合もある、例えば、同じ空間の場所に配置される)ブロックのテクスチャを用いて予測される。対応するまたは協置するブロックの1つの例が図7に示される。第1のブロック702は、基本層704のようなより低いレベルの層に配置される。第2のブロック706は、基本層704の拡張層708に配置される。第2のブロック706(「現在のブロック」または現在符号化中のブロックとも称される)は基本層ブロック702に関して協置される。基本層704におけるブロック702は、拡張層708の画像が基本層704の画像より大きいか、あるいは異なるサイズを有する場合、アップサンプルされ得る。予測誤差(例えば、残差)は変換、量子化、およびエントロピーエンコードされ得る。
SVC残差の変換
[0098]上述したとおり、スケーラブルビデオ符号化の残差は、層間予測(例えば、イントラBLモードにおける予測に起因して)に起因して、非SVC符号化と比較すると異なるエネルギー分布属性を有し得る。SVC残差は、よりノイズライクであり、エネルギーは、全体またはより大きい周波数領域に広がり得る。上述したとおり、非SVCビデオ符号化とは異なり、SVCを用いると、HF構成要素はDCまたはLF構成要素より多くのエネルギーを有することが可能である。それ故に、通常の非SVCビデオ符号化に用いられる従来の方法は、スケーラブルビデオ符号化にうまく機能し得ない。変換基準調整は、SVCを実施する場合の圧縮効率を向上するのに役立つ。
変換行列の調整
[0099]実施例において、ビデオ符号化に用いられる変換行列Aは、適応的に調整される。Hは、調整後の変換行列である。関数Fは調整工程を定義するために用いられる。
[00100]例1:
[00101]例えば、調整とは、全体の基準関数を反転することを含み得る(例えば、変換基準の全てのまたはいくつかの順序を反転する)。
[00102]例1.a(垂直反転、行交換)Aは、下記の通り4x4の変換行列である。
[00103]各行は変換基底関数である。
第1の(最上位の)行は、DCの構成要素に対応する変換基準である。
次の行は、より高い周波数コンポーネントに関する変換基準である(増加する順および最も高い周波数のコンポーネントに対応する最後の(最下位)の行)。
[00104]この実施例において、F(A)は、下記の式となる。
および、調整後の変換行列Hは、下記の式となる。
[00105]例1.b(水平反転、基準要素の交換)
[00106]この実施例において、F(A)は、下記の式となる。
および、調整後の変換行列Hは、下記の式となる。
[00107]例2:この実施例において、Hにおける行iはAにおける行i1である。
[00108]iとi1の間の関係は関数Gを用いて定義される。
[00109]例3:この実施例において、変換調整は、変換基準のサブセットにのみ適用され得る。例えば、iのいくつかの値に関して、i=G(i)であり、例えば、これらの変換基準は、AおよびHの両方において同じ場所にある。
[00110]図8は、例えば、量子化より前に残差ブロックを変換するために用いられる変換行列を適応的に調整する方法の1つの実施例を示す。方法800はブロック802において開始する。ブロック804において、残差ブロック情報が取得される。例えば、残差は、上述した技術のいずれかを用いて決断される。ブロック806において、残差ブロックをエンコードまたはデコードするために用いられる変換関数が調整される。変換関数は、ここに記載された技術のいずれかにしたがって調整され得る。例えば、変換関数は、垂直反転、水平反転、行交換基準要素交換、などによって調整され得る。変換することはまた、逆変換することも含み得る。
[00111]ブロック808において、調整され、変換された残差ブロックが決定される。調整され、変換された残差ブロックは、調整された変換関数と残差ブロックに基づいて決定される。例えば、調整され、変換された残差ブロックは、変換ブロックと称され得る。方法800はブロック810において終了する。
[00112]方法800は、ここに記載された符号化デバイスのいずれかによって実施され得る。例えば、1つの実施例において、図2のエンコーダ20の変換処理ユニット52および/または逆変換ユニット60は、ビデオデータをエンコードするために方法500を実行するように構成される。別の実施例において、図3のデコーダ30の逆変換ユニット78は、エンコードされたビデオビットストリームを逆変換するために、方法800を実行するように構成される。
[00113]別の実施例において、変換基準調整は、第1の変換(例えば、水平変換)、第2の変換(例えば、垂直変換)、またはその両方に適用され得る。水平変換および垂直変換(調整前の)はそれぞれ、相互の転置行列であるかもしれないし、そうではないかもしれない。実施例において、水平変換および垂直変換はディスクリートサイン変換(DST)であり、およびそれの転置されたバージョンである。別の実施例において、水平変換はディスクリートコサイン変換(DCT)であり、および垂直変換はDSTであり得る。
[00114]別の実施例において、変換基準調整は、サイド情報または付加的なビデオ情報に基づいて適応的に適用され得る。例えば、変換調整を適用するかどうかおよび/またはどのように変換調整を適用するか(例えば、どのようにF()および/またはG()が実施されるか)は、例えば、付加的なビデオ情報(例えば、サイド情報)に基づいて適応的に決定され得る。
[00115]サイド情報は、CUモード、CUサイズ、TUサイズ、フレームタイプ、フレームサイズ、量子化パラメータ(QP)、時間層、などを含むが、それらに限定されない。変換選択は、CUサイズ、TUサイズ、フレームタイプ、フレームサイズ、QP、時間層、構文解析された残差係数情報(例えば、最後の非ゼロ係数の位置、非ゼロ係数の数、係数の大きさ、など)のサイド情報に基づいて適応的に決定され得るが、それらに限定されない。
[00116]例えば、1つの実施例において、変換基準調整は、イントラBLモードに関してのみ可能である。別の実施例において、変換基準調整は、拡張層QPと基本層QPの間の差分が非常に近い(例えば、差分は閾値より小さい)場合にのみ有効である。例えば、1つの非限定的な実施例において、QP差分閾値は6に設定される。拡張層QPと基本層QPの間の差分が6に等しいかそれより小さい場合、変換基準調整が可能になる。他のQP差分閾値が用いられ得る。例えば、1つの実施例において、QP差分閾値は2から10までの範囲内である。別の実施例において、変換基準調整は、上記の両方の条件が満たされる時のみに可能になる。
[00117]別の実施例において、変換基準調整が可能かどうかおよび/またはどのように可能かは、対応する基本層、例えば、Blk_BL、などにおいて対応するブロック(例えば、協置ブロック)内の情報に基づいても可能であり得る。例えば、変換基準調整を可能にするかどうかおよび/またはどのように可能にするかどうかは、画素特性、例えば、Blk_BLの画素特性に基づき得る。画素特性は、例えば、テクスチャの方向、画素の大きさ、画素値の平均値、画素値の可変性、勾配方向/値(例えば、Blk_BLの)などであり得るが、それらに限定されない。他の特性は、これらの特性のうちの任意の1つまた複数の代わりにまたはそれらに加えて考慮され得る。例えば、変換基準調整を可能にするかどうかおよび/またはどのように可能にするかどうかは、その場所に関する基本層において検出された残差構造、基本層および予測ブロックの間の差分、などに依存し得る。
[00118]変換基準調整を実行するかどうかまたはどのように実行するかの選択はまた、符号化モード(例えば、Blk_BLの符号化モード)、例えば、Blk_BLがイントラまたはインターまたはスキップモード、イントラ予測、などであるかどうかに基づき得る。変換基準調整を実行するかどうかまたはどのように実行するかの選択はまた、Blk_BL上で調整方法(オン/オフの決定を含む)をテストすることによっておよびBlk_BLにおいて最高のパフォーマンス(例えば、最良のエネルギー圧縮属性)を与えるものを選択することによって抽出され得る。
[00119]実施例において、関数、例えば、F()、G()など、または基準関数に適用するための交換は、現在のフレームまたは前のフレームにおいて収集される統計値に依存するかもしれない。変換基準調整を可能にするかどうかおよび/またはどのように可能にするかどうかは、シーケンスパラメータセット(SPS)におけるエンコーダ、より低レベルにあるピクチャパラメータセット(PPS)、スライスヘッダによって、例えば、各最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)または変換ユニット(TU)に信号伝達され得る。信号伝達は、前の変換について交換または差分を適用し得る。さらに、いくつかの実施例において、変換係数符号化ステージに適用される走査は基準関数に依存し得る。
[00120]例に依存して、ここに記載された技術のうちのいずれか特定の動作または事象は、異なるシーケンスにおいて実行されることが可能であり、追加されたり、併合されたり、あるいは完全に除外され得る(例えば、記載された動作または事象の全てが技術の実施に必要ではない)ことが認識されるはずである。さらに、特定の例において、動作または事象は、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサを介して、連続的よりむしろ同時に実行され得る。
[00121]1つまたは複数の例において、記載された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せに実装され得る。ソフトウェアに実装される場合、この機能は、コンピュータ可読媒体上に1つまたは複数の命令またはコードとして格納されるか、またはコンピュータ可読媒体を介して送信され、およびハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、コンピュータ可読記憶媒体、それはデータ記憶媒体のような実体のある媒体に対応する、または、通信プロトコルにしたがって、ある場所から別の場所へコンピュータプログラムの転送を容易にする任意の媒体等を含む通信媒体を含み得る。この仕方において、コンピュータ可読媒体は、一般的に、(1)非一時的な実体のあるコンピュータ可読記憶媒体または(2)信号または搬送波のような通信媒体に対応し得る。データ記憶媒体は、ここに記載された技術の実施のための命令、コードおよび/またはデータ構造を検索するための1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る任意の入手可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[00122]限定ではなく例として、こういったコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光学ディスク記憶装置、磁気ディスク記憶装置、または他の磁気記憶デバイス、フラッシュメモリ、または命令の形式で望ましいプログラムコードまたはデータ構造を記憶するために使用可能なおよびコンピュータによってアクセス可能な任意の他の媒体を備えることができる。同様に、任意の接続は適切にコンピュータ可読媒体と呼ばれる。例えば、命令が同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波のような無線技術を用いて、ウェブサイト、サーバ、または他の遠隔ソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波のような無線技術は、媒体の定義に含まれる。しかし、コンピュータ可読記憶媒体とデータ記憶媒体は、接続、搬送波、信号または他の一時的媒体を含まないが、代わりに非一時的で実体のある記憶媒体を対象にしていることが理解されるべきである。ディスク(disk)およびディスク(disc)は、ここで用いられるように、コンパクトディスク(CD)、レーザ―ディスク(登録商標)、光ディスク、デジタル多目的ディスク(DVD)、フロッピー(登録商標)ディスク、およびブルーレイディスクを含み、そこにおいて、ディスク(disk)は通常、データを磁気的に再生し、一方、ディスク(disc)は、レーザを用いて光学的にデータを再生する。上記の組合せはまた、コンピュータ可読媒体の範囲に含まれるべきである。
[00123]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、アプリケーション特定集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価の集積またはディスクリート論理回路のような1つまたは複数のプロセッサによって実行され得る。従って、ここで用いられたような用語「プロセッサ」は、ここに記載された技術の実施に適した前述の構造または任意の他の構造のうちのいずれかを指し得る。さらに、いくつかの観点において、ここに記載された機能は、エンコーディングおよびデコーディングのために構成された、または組み合わされたコーデックに統合された専用のハードウェアおよび/またはソフトウェアモジュール内に提供され得る。同様に、技術は、1つまたは複数の回路または論理要素内で十分に実施されるだろう。
[00124]本開示の技術は、無線ハンドセット、集積回路(IC)またはICのセット(例えば、チップセット)を含む多種多様なデバイスまたは装置に実装され得る。種々の構成要素、モジュール、またはユニットは、開示された技術を実行するように構成されたデバイスの機能的な観点を強調するためにこの開示において説明されるが、異なるハードウェアユニットによる実現を必ずしも要求しない。むしろ、上述したとおり、種々のユニットは、コーデックハードウェアユニットに組み合されるか、または適切なソフトウェアおよび/またはファームウェアと連動して、上述されたような1つまたは複数のプロセッサを含む相互に動作可能なハードウェアユニットの収集によって提供され得る。
[00125]様々な例が説明されてきた。これらのおよびその他の例は、下記の請求項の範囲内である。
[00125]様々な例が説明されてきた。これらのおよびその他の例は、下記の請求項の範囲内である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオ情報を符号化するように構成された装置であって、
前記装置は、
基準層と対応する拡張層に関連付けられるビデオ情報を記憶するように構成されたメモリユニットと、
前記メモリユニットと通信するプロセッサであって、
前記プロセッサは、
前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得し、
前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定し、
前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定する、
ように構成された、
プロセッサ、
を備える、
装置。
[C2]
前記変換関数は第1の変換行列を備え、前記第1の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースと第2の変換行列を備え、前記第2の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースを備え、そこにおいて、前記プロセッサは前記第1の変換行列と前記第2の変換行列のうちの1つまたは両方に基づいて前記調整された変換関数を決定するようにさらに構成される、C1に記載の装置。
[C3]
前記プロセッサは、前記第1の変換行列の少なくとも1つの行において前記変換ベースのうちの少なくともいくつかの順序を反転させることによって、前記調整された変換関数を決定するように構成される、C2に記載の装置。
[C4]
前記プロセッサは、前記第1の変換行列の前記行の前記順序を反転させることによって、前記調整された変換関数を決定するように構成される、C2に記載の装置。
[C5]
前記第1の変換行列、前記第2の変換行列、またはその両方は、ディスクリートコサイン変換、ディスクリートサイン変換、アダマール変換、ハール変換を備える前記グループから選択された変換に対応する、C2に記載の装置。
[C6]
前記第1の変換行列は、前記第2の変換行列の転置行列である、C2に記載の装置。
[C7]
前記プロセッサは、前記ビデオ情報に基づいて前記調整された変換関数を決定するようにさらに構成される、C1に記載の装置。
[C8]
前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、C7に記載の装置。
[C9]
前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、C8に記載の装置。
[C10]
前記プロセッサは、(a)前記ビデオ情報が予め決定された符号化モードに対応するか、(b)前記拡張層のQPと前記基準層のQPの間の差分が予め決定された閾値より小さいか、あるいは(a)および(b)の両方の場合のみ前記調整された変換関数を決定するように構成される、C1に記載の装置。
[C11]
前記プロセッサが、前記変換ブロックを用いて前記ビデオ情報をエンコードするようにさらに構成される、C1に記載の装置。
[C12]
前記プロセッサが、前記変換ブロックを用いて前記ビデオ情報をデコードするようにさらに構成される、C1に記載の装置。
[C13]
前記プロセッサを備えるデバイスをさらに備え、そこにおいて、前記デバイスは、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、テレフォンハンドセット、スマートフォン、スマート・パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、またはビデオストリーミングデバイスのうちの1つ又は複数を備える前記グループから選択される、C1に記載の装置。
[C14]
ビデオ情報をデコードする方法であって、
前記方法は、
基準層と対応する拡張層に関連付けられるビデオ情報を記憶することと、
前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することと、
前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することと、
前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定することと、
前記変換ブロックを用いて前記ビデオ情報をデコードすること、
を備える、
方法。
[C15]
前記変換関数は第1の変換行列を備え、前記第1の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースと第2の変換行列を備え、前記第2の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースを備え、および前記第1の変換行列と前記第2の変換行列のうちの1つまたは両方に基づいて前記調整された変換関数を決定する、C14に記載の方法。
[C16]
前記第1の変換行列の少なくとも1つの行において前記変換ベースのうちの少なくともいくつかの順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、C15に記載の方法。
[C17]
前記第1の変換行列の前記行の前記順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、C15に記載の方法。
[C18]
前記第1の変換行列、前記第2の変換行列、またはその両方は、ディスクリートコサイン変換、ディスクリートサイン変換、アダマール変換、ハール変換を備える前記グループから選択された変換に対応する、C15に記載の方法。
[C19]
前記第1の変換行列は、前記第2の変換行列の転置行列である、C15に記載の方法。
[C20]
前記調整された変換関数を決定することは、前記ビデオ情報に基づく、C14に記載の方法。
[C21]
前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、C20に記載の方法。
[C22]
前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、C21に記載の方法。
[C23]
前記調整された変換関数を前記決定することは、(a)前記ビデオ情報が予め決定された符号化モードに対応するか、(b)前記拡張層のQPと前記基準層のQPの間の差分が予め決定された閾値より小さいか、あるいは(a)および(b)の両方の場合のみ決定される、C14に記載の方法。
[C24]
ビデオ情報をエンコードする方法であって、
前記方法は、
基準層と対応する拡張層に関連付けられるビデオ情報を記憶することと、
前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することと、
前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することと、
前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定することと、
前記変換ブロックを用いて前記ビデオ情報をエンコードすること、
を備える、
方法。
[C25]
前記変換関数は第1の変換行列を備え、前記第1の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースと第2の変換行列を備え、前記第2の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースを備え、および前記第1の変換行列と前記第2の変換行列のうちの1つまたは両方に基づいて前記調整された変換関数を決定する、C24に記載の方法。
[C26]
前記第1の変換行列の少なくとも1つの行において前記変換ベースのうちの少なくともいくつかの順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、C25に記載の方法。
[C27]
前記第1の変換行列の前記行の前記順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、C25に記載の方法。
[C28]
前記第1の変換行列、前記第2の変換行列、またはその両方は、ディスクリートコサイン変換、ディスクリートサイン変換、アダマール変換、ハール変換を備える前記グループから選択された変換に対応する、C25に記載の方法。
[C29]
前記第1の変換行列は、前記第2の変換行列の転置行列である、C25に記載の方法。
[C30]
前記調整された変換関数を決定することは、前記ビデオ情報に基づく、C24に記載の方法。
[C31]
前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、C30に記載の方法。
[C32]
前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、C31に記載の方法。
[C33]
前記調整された変換関数を前記決定することは、(a)前記ビデオ情報が予め決定された符号化モードに対応するか、(b)前記拡張層のQPと前記基準層のQPの間の差分が予め決定された閾値より小さいか、あるいは(a)および(b)の両方の場合のみ決定される、C24に記載の方法。
[C34]
ビデオ情報を符号化するための装置であって、
前記装置は、
基準層と対応する拡張層に関連付けられるビデオ情報を記憶するための手段と、
前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得するための手段と、
前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定するための手段と、
前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定するための手段、
を備える、
装置。
[C35]
前記調整された変換関数を決定するための前記手段は、前記ビデオ情報に基づいて前記調整された変換関数を決定するように構成される、C34に記載の装置。
[C36]
前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、C35に記載の装置。
[C37]
前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、C36に記載の装置。
[C38]
コンピュータで実行可能な命令を有するコンピュータ可読媒体であって、前記コンピュータで実行可能な命令は、計算デバイスによって実行される時に、
基準層と対応する拡張層に関連付けられるビデオ情報を記憶することと、
前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することと、
前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することと、
前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定すること、
を前記計算デバイスにさせる、コンピュータ可読媒体。
[C39]
前記コンピュータで実行可能な命令は、前記ビデオ情報に基づいて前記調整された変換関数を決定することを前記計算デバイスにさせる、C38に記載のコンピュータ可読媒体。
[C40]
前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、C39に記載のコンピュータ可読媒体。
[C41]
前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、C40に記載のコンピュータ可読媒体。

Claims (41)

  1. ビデオ情報を符号化するように構成された装置であって、
    前記装置は、
    基準層と対応する拡張層に関連付けられるビデオ情報を記憶するように構成されたメモリユニットと、
    前記メモリユニットと通信するプロセッサであって、
    前記プロセッサは、
    前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得し、
    前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定し、
    前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定する、
    ように構成された、
    プロセッサ、
    を備える、
    装置。
  2. 前記変換関数は第1の変換行列を備え、前記第1の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースと第2の変換行列を備え、前記第2の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースを備え、そこにおいて、前記プロセッサは前記第1の変換行列と前記第2の変換行列のうちの1つまたは両方に基づいて前記調整された変換関数を決定するようにさらに構成される、請求項1に記載の装置。
  3. 前記プロセッサは、前記第1の変換行列の少なくとも1つの行において前記変換ベースのうちの少なくともいくつかの順序を反転させることによって、前記調整された変換関数を決定するように構成される、請求項2に記載の装置。
  4. 前記プロセッサは、前記第1の変換行列の前記行の前記順序を反転させることによって、前記調整された変換関数を決定するように構成される、請求項2に記載の装置。
  5. 前記第1の変換行列、前記第2の変換行列、またはその両方は、ディスクリートコサイン変換、ディスクリートサイン変換、アダマール変換、ハール変換を備える前記グループから選択された変換に対応する、請求項2に記載の装置。
  6. 前記第1の変換行列は、前記第2の変換行列の転置行列である、請求項2に記載の装置。
  7. 前記プロセッサは、前記ビデオ情報に基づいて前記調整された変換関数を決定するようにさらに構成される、請求項1に記載の装置。
  8. 前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、請求項7に記載の装置。
  9. 前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、請求項8に記載の装置。
  10. 前記プロセッサは、(a)前記ビデオ情報が予め決定された符号化モードに対応するか、(b)前記拡張層のQPと前記基準層のQPの間の差分が予め決定された閾値より小さいか、あるいは(a)および(b)の両方の場合のみ前記調整された変換関数を決定するように構成される、請求項1に記載の装置。
  11. 前記プロセッサが、前記変換ブロックを用いて前記ビデオ情報をエンコードするようにさらに構成される、請求項1に記載の装置。
  12. 前記プロセッサが、前記変換ブロックを用いて前記ビデオ情報をデコードするようにさらに構成される、請求項1に記載の装置。
  13. 前記プロセッサを備えるデバイスをさらに備え、そこにおいて、前記デバイスは、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、テレフォンハンドセット、スマートフォン、スマート・パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、またはビデオストリーミングデバイスのうちの1つ又は複数を備える前記グループから選択される、請求項1に記載の装置。
  14. ビデオ情報をデコードする方法であって、
    前記方法は、
    基準層と対応する拡張層に関連付けられるビデオ情報を記憶することと、
    前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することと、
    前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することと、
    前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定することと、
    前記変換ブロックを用いて前記ビデオ情報をデコードすること、
    を備える、
    方法。
  15. 前記変換関数は第1の変換行列を備え、前記第1の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースと第2の変換行列を備え、前記第2の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースを備え、および前記第1の変換行列と前記第2の変換行列のうちの1つまたは両方に基づいて前記調整された変換関数を決定する、請求項14に記載の方法。
  16. 前記第1の変換行列の少なくとも1つの行において前記変換ベースのうちの少なくともいくつかの順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、請求項15に記載の方法。
  17. 前記第1の変換行列の前記行の前記順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、請求項15に記載の方法。
  18. 前記第1の変換行列、前記第2の変換行列、またはその両方は、ディスクリートコサイン変換、ディスクリートサイン変換、アダマール変換、ハール変換を備える前記グループから選択された変換に対応する、請求項15に記載の方法。
  19. 前記第1の変換行列は、前記第2の変換行列の転置行列である、請求項15に記載の方法。
  20. 前記調整された変換関数を決定することは、前記ビデオ情報に基づく、請求項14に記載の方法。
  21. 前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、請求項20に記載の方法。
  22. 前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、請求項21に記載の方法。
  23. 前記調整された変換関数を前記決定することは、(a)前記ビデオ情報が予め決定された符号化モードに対応するか、(b)前記拡張層のQPと前記基準層のQPの間の差分が予め決定された閾値より小さいか、あるいは(a)および(b)の両方の場合のみ決定される、請求項14に記載の方法。
  24. ビデオ情報をエンコードする方法であって、
    前記方法は、
    基準層と対応する拡張層に関連付けられるビデオ情報を記憶することと、
    前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することと、
    前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することと、
    前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定することと、
    前記変換ブロックを用いて前記ビデオ情報をエンコードすること、
    を備える、
    方法。
  25. 前記変換関数は第1の変換行列を備え、前記第1の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースと第2の変換行列を備え、前記第2の変換行列は1つまたは複数の行を備え、各行は1つまたは複数の変換ベースを備え、および前記第1の変換行列と前記第2の変換行列のうちの1つまたは両方に基づいて前記調整された変換関数を決定する、請求項24に記載の方法。
  26. 前記第1の変換行列の少なくとも1つの行において前記変換ベースのうちの少なくともいくつかの順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、請求項25に記載の方法。
  27. 前記第1の変換行列の前記行の前記順序を反転させることによって、前記調整された変換関数を決定することをさらに備える、請求項25に記載の方法。
  28. 前記第1の変換行列、前記第2の変換行列、またはその両方は、ディスクリートコサイン変換、ディスクリートサイン変換、アダマール変換、ハール変換を備える前記グループから選択された変換に対応する、請求項25に記載の方法。
  29. 前記第1の変換行列は、前記第2の変換行列の転置行列である、請求項25に記載の方法。
  30. 前記調整された変換関数を決定することは、前記ビデオ情報に基づく、請求項24に記載の方法。
  31. 前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、請求項30に記載の方法。
  32. 前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、請求項31に記載の方法。
  33. 前記調整された変換関数を前記決定することは、(a)前記ビデオ情報が予め決定された符号化モードに対応するか、(b)前記拡張層のQPと前記基準層のQPの間の差分が予め決定された閾値より小さいか、あるいは(a)および(b)の両方の場合のみ決定される、請求項24に記載の方法。
  34. ビデオ情報を符号化するための装置であって、
    前記装置は、
    基準層と対応する拡張層に関連付けられるビデオ情報を記憶するための手段と、
    前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得するための手段と、
    前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定するための手段と、
    前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定するための手段、
    を備える、
    装置。
  35. 前記調整された変換関数を決定するための前記手段は、前記ビデオ情報に基づいて前記調整された変換関数を決定するように構成される、請求項34に記載の装置。
  36. 前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、請求項35に記載の装置。
  37. 前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、請求項36に記載の装置。
  38. コンピュータで実行可能な命令を有するコンピュータ可読媒体であって、前記コンピュータで実行可能な命令は、計算デバイスによって実行される時に、
    基準層と対応する拡張層に関連付けられるビデオ情報を記憶することと、
    前記基準層と前記拡張層と関連付けられるビデオ情報に少なくとも部分的に基づいて残差ブロック情報を取得することと、
    前記ビデオ情報と関連付けられる変換関数に基づいて調整された変換関数を決定することと、
    前記調整された変換関数と前記残差ブロック情報に基づいて変換ブロックを決定すること、
    を前記計算デバイスにさせる、コンピュータ可読媒体。
  39. 前記コンピュータで実行可能な命令は、前記ビデオ情報に基づいて前記調整された変換関数を決定することを前記計算デバイスにさせる、請求項38に記載のコンピュータ可読媒体。
  40. 前記ビデオ情報は、符号化ユニット(CU)モード、CUサイズ、変換ユニット(TU)サイズ、フレームタイプ、フレームサイズ、QP、時間層、および構文解析された残差係数情報のうちの1つまたは複数を備える前記グループから選択される、請求項39に記載のコンピュータ可読媒体。
  41. 前記構文解析された残差係数情報は、最後の非ゼロ係数の位置、非ゼロ係数の数、および1つまたは複数の係数の大きさのうちの1つまたは複数を備える前記グループから選択される、請求項40に記載のコンピュータ可読媒体。
JP2015530111A 2012-09-04 2013-08-30 スケーラブルビデオ符号化における変換基準の調整 Expired - Fee Related JP6293756B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261696713P 2012-09-04 2012-09-04
US61/696,713 2012-09-04
US14/014,016 US10194158B2 (en) 2012-09-04 2013-08-29 Transform basis adjustment in scalable video coding
US14/014,016 2013-08-29
PCT/US2013/057618 WO2014039398A1 (en) 2012-09-04 2013-08-30 Transform basis adjustment in scalable video coding

Publications (3)

Publication Number Publication Date
JP2015530830A true JP2015530830A (ja) 2015-10-15
JP2015530830A5 JP2015530830A5 (ja) 2016-09-29
JP6293756B2 JP6293756B2 (ja) 2018-03-14

Family

ID=50187592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015530111A Expired - Fee Related JP6293756B2 (ja) 2012-09-04 2013-08-30 スケーラブルビデオ符号化における変換基準の調整

Country Status (6)

Country Link
US (1) US10194158B2 (ja)
EP (1) EP2893703B1 (ja)
JP (1) JP6293756B2 (ja)
KR (1) KR20150052247A (ja)
CN (1) CN104604224B (ja)
WO (1) WO2014039398A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019102888A1 (ja) * 2017-11-24 2019-05-31 ソニー株式会社 画像処理装置および方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143991A1 (ko) * 2015-03-06 2016-09-15 한국과학기술원 저 복잡도 변환에 기반한 영상 부호화 및 복호화 방법 및 이를 이용하는 장치
WO2017138791A1 (ko) 2016-02-12 2017-08-17 삼성전자 주식회사 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2017142085A1 (ja) 2016-02-17 2017-08-24 日本放送協会 符号化装置、復号装置及びプログラム
CN106168889B (zh) * 2016-06-21 2020-11-03 维沃移动通信有限公司 一种片源编码方法以及电子设备
US11647214B2 (en) * 2018-03-30 2023-05-09 Qualcomm Incorporated Multiple transforms adjustment stages for video coding
KR102631119B1 (ko) * 2018-04-01 2024-01-29 엘지전자 주식회사 축소된 2차 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
EP3854081A4 (en) * 2018-09-20 2022-07-06 Nokia Technologies Oy METHOD AND APPARATUS FOR CODING AND DECODING DIGITAL IMAGE/VIDEO MATERIAL
US11871052B1 (en) * 2018-09-27 2024-01-09 Apple Inc. Multi-band rate control
EP3874746A1 (en) 2018-11-01 2021-09-08 InterDigital VC Holdings, Inc. Video encoding and decoding using multiple transform selection
US10904563B2 (en) * 2019-01-02 2021-01-26 Tencent America LLC Method and apparatus for improved zero out transform
CN109788291A (zh) * 2019-02-12 2019-05-21 北京大学 一种数字视频变换方法、装置、设备及存储介质
CN110392265B (zh) * 2019-08-27 2022-03-25 广州虎牙科技有限公司 帧间运动估计方法、装置、电子设备及可读存储介质
CN111260022B (zh) * 2019-11-22 2023-09-05 中国电子科技集团公司第五十二研究所 一种卷积神经网络全int8定点量化的方法
CN111950716A (zh) * 2020-08-25 2020-11-17 云知声智能科技股份有限公司 一种优化int8的量化方法及系统
CN116156170B (zh) * 2023-04-24 2024-04-16 北京中星微人工智能芯片技术有限公司 数据流的发送方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884081A (ja) * 1994-07-13 1996-03-26 Matsushita Electric Ind Co Ltd デジタル符号化装置及びデジタル符号復号化装置
JP2010512698A (ja) * 2006-12-14 2010-04-22 トムソン ライセンシング 適応エンハンスメントレイヤ予測を使用したビット深度スケーラブルなビデオデータを符号化及び/又は復号化する方法及び装置
WO2012096194A1 (ja) * 2011-01-14 2012-07-19 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号化方法、画像復号化装置および画像符号化復号化装置
JP2012165431A (ja) * 2006-04-04 2012-08-30 Qualcomm Inc フレーム情報表を用いたフレームレベルのマルチメディア復号

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100186915B1 (ko) 1994-07-13 1999-05-01 모리시다 요이치 디지털 부호화 장치 및 디지털 부호 복호화 장치
US6134270A (en) * 1997-06-13 2000-10-17 Sun Microsystems, Inc. Scaled forward and inverse discrete cosine transform and video compression/decompression systems employing the same
US7620252B2 (en) * 2005-04-22 2009-11-17 Hewlett-Packard Development Company, L.P. System and method for compressing an image
US8619860B2 (en) 2005-05-03 2013-12-31 Qualcomm Incorporated System and method for scalable encoding and decoding of multimedia data using multiple layers
DE602007010835D1 (de) 2007-01-18 2011-01-05 Fraunhofer Ges Forschung Qualitätsskalierbarer videodatenstrom
CN103281542B (zh) 2007-06-29 2017-07-14 夏普株式会社 图像编码装置、图像编码方法、图像译码装置、图像译码方法
US8175158B2 (en) 2008-01-04 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction parameter determination
CN101466040B (zh) 2009-01-09 2010-12-01 北京大学 一种用于视频编码模式决策的码率估计方法
KR101712097B1 (ko) * 2009-08-19 2017-03-03 삼성전자 주식회사 유연한 직교 변환에 기초한 영상 부호화, 복호화 방법 및 장치
CN106101719B (zh) * 2010-01-12 2020-06-30 Lg电子株式会社 视频信号的处理方法和设备
CN103125116A (zh) * 2010-09-28 2013-05-29 三星电子株式会社 视频编码方法和装置以及解码方法和装置
US9300943B2 (en) * 2011-01-12 2016-03-29 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
BR112013031215B8 (pt) 2011-06-10 2022-07-19 Mediatek Inc Método e aparelho de codificação escalável de vídeo
AU2012200319B2 (en) 2012-01-19 2015-11-26 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the significance map for residual coefficients of a transform unit
US10257520B2 (en) * 2012-06-26 2019-04-09 Velos Media, Llc Modified coding for transform skipping

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884081A (ja) * 1994-07-13 1996-03-26 Matsushita Electric Ind Co Ltd デジタル符号化装置及びデジタル符号復号化装置
JP2012165431A (ja) * 2006-04-04 2012-08-30 Qualcomm Inc フレーム情報表を用いたフレームレベルのマルチメディア復号
JP2010512698A (ja) * 2006-12-14 2010-04-22 トムソン ライセンシング 適応エンハンスメントレイヤ予測を使用したビット深度スケーラブルなビデオデータを符号化及び/又は復号化する方法及び装置
WO2012096194A1 (ja) * 2011-01-14 2012-07-19 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号化方法、画像復号化装置および画像符号化復号化装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GLENN VAN WALLENDAEL, ET AL.: "Transform skipping dependant on block parameters", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 7TH M, vol. JCTVC-G577, JPN5015009452, 8 November 2011 (2011-11-08), ISSN: 0003676984 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019102888A1 (ja) * 2017-11-24 2019-05-31 ソニー株式会社 画像処理装置および方法
JPWO2019102888A1 (ja) * 2017-11-24 2020-11-19 ソニー株式会社 画像処理装置および方法
US11445218B2 (en) 2017-11-24 2022-09-13 Sony Corporation Image processing apparatus and method
JP7375543B2 (ja) 2017-11-24 2023-11-08 ソニーグループ株式会社 画像処理装置および方法

Also Published As

Publication number Publication date
JP6293756B2 (ja) 2018-03-14
CN104604224B (zh) 2019-05-10
EP2893703A1 (en) 2015-07-15
US20140064361A1 (en) 2014-03-06
KR20150052247A (ko) 2015-05-13
EP2893703B1 (en) 2019-05-15
CN104604224A (zh) 2015-05-06
US10194158B2 (en) 2019-01-29
WO2014039398A1 (en) 2014-03-13

Similar Documents

Publication Publication Date Title
JP6293756B2 (ja) スケーラブルビデオ符号化における変換基準の調整
TWI766844B (zh) 針對視訊寫碼使用與位置相關之預測組合之改良視訊幀內預測
US9756335B2 (en) Optimizations on inter-layer prediction signalling for multi-layer video coding
EP3687169B1 (en) Weighted prediction mode for scalable video coding
KR102182441B1 (ko) 비디오 코딩에서 hevc 확장들을 위한 다중 계층들의 저복잡도 지원
JP6352314B2 (ja) 異なるアスペクト比を伴う空間スケーラビリティのためのレイヤ間の参照ピクチャの構築
JP6193370B2 (ja) 適応差分領域空間および時間参照再構成およびスムージング
US20130287109A1 (en) Inter-layer prediction through texture segmentation for video coding
US20140064359A1 (en) Intra prediction most probable mode order improvement for scalable video coding
US9648353B2 (en) Multiple base layer reference pictures for SHVC
US20130329806A1 (en) Bi-layer texture prediction for video coding
JP2015527811A (ja) スケーラブル映像コーディング及び3d映像コーディングに関する一般化された残差予測
JP2015514362A (ja) ビデオ・コーディングのためのインタ・レイヤ・テクスチャ予測
WO2014025698A1 (en) Weighted difference prediction under the framework of generalized residual prediction
US9479788B2 (en) Systems and methods for low complexity encoding and background detection
US9386306B2 (en) Enhancement layer scan order derivation for scalable video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180214

R150 Certificate of patent or registration of utility model

Ref document number: 6293756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees