JP2014531178A - ビデオコーディングのためのタイルのグループ化 - Google Patents

ビデオコーディングのためのタイルのグループ化 Download PDF

Info

Publication number
JP2014531178A
JP2014531178A JP2014538921A JP2014538921A JP2014531178A JP 2014531178 A JP2014531178 A JP 2014531178A JP 2014538921 A JP2014538921 A JP 2014538921A JP 2014538921 A JP2014538921 A JP 2014538921A JP 2014531178 A JP2014531178 A JP 2014531178A
Authority
JP
Japan
Prior art keywords
tile
video data
tiles
groups
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014538921A
Other languages
English (en)
Other versions
JP6038942B2 (ja
Inventor
ワン、イェ—クイ
ワン、イェ―クイ
チェン、イン
コバン、ムハンメド・ゼイド
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014531178A publication Critical patent/JP2014531178A/ja
Application granted granted Critical
Publication of JP6038942B2 publication Critical patent/JP6038942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオデータをコーディングするための本明細書で説明する技法は、タイルに区分されるピクチャをコーディングするための技法を含み、ピクチャ中の複数のタイルの各々は、複数のタイルグループのうちの1つに割り当てられる。複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするための1つの例示的な方法は、ビットストリーム中でビデオデータをコーディングすることと、複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報をビットストリーム中でコーディングすることとを備える。本明細書で説明するタイルをグループ化するための技法は、ビデオビットストリームの符号化と復号の両方のための並列処理の改善と、誤り耐性の改善と、よりフレキシブルな関心領域(ROI)コーディングとを可能にし得る。【選択図】図8

Description

優先権の主張
本出願は、その内容全体が参照により本明細書に組み込まれる、2011年10月24日に出願された米国仮出願第61/550,833号の利益を主張する。
本開示は、ビデオコーディングに関し、より詳細には、タイルに区分されるピクチャをコーディングするための技法に関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、ビデオ遠隔会議デバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、デジタルビデオ情報をより効率的に送信、受信および記憶するための、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part10,アドバンストビデオコーディング(AVC:Advanced Video Coding)によって定義された規格、現在開発中の高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格、およびそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。
[0004]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間的予測および/または時間的予測を含む。ブロックベースのビデオコーディングの場合、ビデオフレームまたはスライスはブロックに区分され得る。各ブロックはさらに区分され得る。イントラコード化(I)フレームまたはスライス中のブロックは、同じフレームまたはスライス中の隣接ブロック中の参照サンプルに対する空間的予測を使用して符号化される。インターコード化(PまたはB)フレームまたはスライス中のブロックは、同じフレームまたはスライス中の隣接ブロック中の参照サンプルに対する空間的予測、あるいは他の参照フレーム中の参照サンプルに対する時間的予測を使用し得る。空間的予測または時間的予測は、コーディングされるべきブロックの予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。
[0005]インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトル、およびコード化ブロックと予測ブロックとの間の差分を示す残差データに従って符号化される。イントラコード化ブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。最初は2次元アレイに構成される、量子化された変換係数は、特定の順序で走査されて、エントロピーコーディングのための変換係数の1次元ベクトルが生成され得る。
[0006]ビデオデータをコーディングするための本明細書で説明する技法は、タイルに区分されるピクチャをコーディングするための技法を含み、ピクチャ中の複数のタイルの各々は、複数のタイルグループのうちの1つに割り当てられる。ピクチャ中の各タイルが割り当てられたタイルグループを示す情報がビットストリーム中に含まれ得る。いくつかの例では、ビットストリーム中に含まれる情報は、タイルが割り当てられたタイルグループを示す、各タイルのタイルグループIDの形態をとり得る。様々な例における、本明細書で説明するタイルをグループ化するための技法は、ビデオビットストリームの符号化と復号の両方のための並列処理の改善と、誤り耐性の改善と、よりフレキシブルな関心領域(ROI:region of interest)コーディングとを可能にし得る。
[0007]一例では、複数のタイルに区分されるピクチャを備えるビデオデータをコーディングする方法は、ビットストリーム中でビデオデータをコーディングすることと、複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報をビットストリーム中でコーディングすることとを備える。
[0008]別の例では、複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスは、ビットストリーム中でビデオデータをコーディングすることと、複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報をビットストリーム中でコーディングすることとを行うように構成される。
[0009]別の例では、複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスは、ビットストリーム中でビデオデータをコーディングする手段と、複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報をビットストリーム中でコーディングする手段とを備える。
[0010]別の例では、コンピュータ可読記憶媒体は、実行されたとき、複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスのプロセッサに、ビットストリーム中でビデオデータをコーディングすることと、複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報をビットストリーム中でコーディングすることとを行わせる命令を記憶している。
[0011]1つまたは複数の例の詳細を添付の図面および以下の説明に記載する。他の特徴、目的、および利点は、説明および図面、ならびに特許請求の範囲から明らかになろう。
例示的なビデオ符号化および復号システムを示すブロック図。 タイルの各々が複数のタイルグループのうちの1つに割り当てられる、タイルに区分される例示的なピクチャを示す概念図。 タイルの各々が複数のタイルグループのうちの1つに割り当てられる、タイルに区分される例示的なピクチャを示す概念図。 タイルの各々が複数のタイルグループのうちの1つに割り当てられる、タイルに区分される例示的なピクチャを示す概念図。 タイルの各々が複数のタイルグループのうちの1つに割り当てられる、タイルに区分される例示的なピクチャを示す概念図。 タイルの各々が2つのタイルグループのうちの1つに割り当てられ、タイルグループのうちの1つがROIに対応する、複数のタイルに区分される例示的なピクチャを示す概念図。 タイルの各々が2つのタイルグループのうちの1つに割り当てられる、複数のタイルに区分される別の例示的なピクチャを示す概念図。 タイル境界とスライス境界とによってピクチャを区分することの例を示す概念図。 カプセル化ユニットとともに例示的なビデオエンコーダを示すブロック図。 例示的なカプセル化解除(decapsulation)ユニットとともに例示的なビデオデコーダを示すブロック図。 本開示による、タイルのグループ化を含む例示的な方法を示すフローチャート。
[0020]概して、本開示では、ビデオデータをコーディングするための技法について説明する。特に、本開示では、タイルに区分されるピクチャをコーディングするための技法について説明し、ピクチャ中の複数のタイルの各々は、複数のタイルグループのうちの1つに割り当てられる。本明細書で説明するタイルをグループ化するための技法は、ビデオビットストリームの符号化と復号の両方のための並列処理の改善を可能にし得る。いくつかの例では、本技法は、誤り耐性の改善および/またはよりフレキシブルな関心領域(ROI)コーディングを促進し得る。
[0021]デジタルビデオデバイスは、デジタルビデオ情報をより効率的に符号化および復号するためのビデオ圧縮技法を実装する。ITU−Tビデオコーディングエキスパーツグループ(VCEG:Video Coding Experts Group)とISO/IECモーションピクチャエキスパーツグループ(MPEG:Motion Picture Experts Group)とのビデオコーディング共同研究部会(JCT−VC:Joint Collaboration Team on Video Coding)によって開発されている新しいビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)がある。「HEVC Working Draft6」または「WD6」と呼ばれるHEVC規格の最近のドラフトは、文書JCTVC−H1003、Brossら、「High efficiency video coding (HEVC) text specification draft 6」、ITU−T SG16 WP3とISO/IEC JTC1/SC29/WG11とのビデオコーディング共同研究部会(JCT−VC:Joint Collaborative Team on Video Coding)、第8回会合:米国カリフォルニア州サンノゼ、2012年2月に記載されおり、この文書は、2012年6月1日現在、http://phenix.int-evry.fr/jct/doc_end_user/documents/8_San%20Jose/wg11/JCTVC-H1003-v22.zipからダウンロード可能である。
[0022]HEVCの現在のワーキングドラフトによるビデオコーディングでは、一例として、ビデオフレームはコーディングユニットに区分され得る。コーディングユニット(CU:coding unit)は、概して、ビデオ圧縮のために様々なコーディングツールが適用される基本ユニットとして働く画像領域を指す。CUは、通常、Yとして示されることがあるルミナンス成分と、CrおよびCbとして示されることがある2つのクロマ成分とを有する。ビデオサンプリングフォーマットに応じて、サンプルの数で表されるCrおよびCb成分のサイズは、Y成分のサイズと同じであるかまたはそれとは異なり得る。CUは、一般に方形であり、たとえば、ITU−T H.264などの他のビデオコーディング規格の下でのいわゆるマクロブロックと同様であると見なされ得る。
[0023]より良好なコーディング効率を達成するために、コーディングユニットは、ビデオコンテンツに応じて可変サイズを有し得る。さらに、コーディングユニットは、予測または変換のためにより小さいブロックに分割され得る。具体的には、各コーディングユニットは、予測ユニット(PU:prediction unit)と変換ユニット(TU:transform unit)とにさらに区分され得る。予測ユニットは、H.264などの他のビデオコーディング規格の下でのいわゆるパーティションと同様であると見なされ得る。変換ユニット(TU)は、変換係数を生成するために変換が適用される残差データのブロックを指す。残差データは、空間領域におけるピクセル差分値を含み得る。残差データを周波数領域などの変換領域に変換するために変換が使用される。
[0024]本出願では、例示のために、開発中のHEVC規格の現在提案されている態様のいくつかに従うコーディングについて説明する。ただし、本開示で説明する技法は、特にタイルに構成されるビデオデータのコーディングが指定される限り、H.264または他の規格に従って定義されるビデオコーディングプロセスあるいはプロプライエタリ(proprietary)ビデオコーディングプロセスなど、他のビデオコーディングプロセスのために有用であり得る。
[0025]HEVCの規格化の取り組みは、HEVCテストモデル(HM:HEVC Test Model)と呼ばれるビデオコーディングデバイスのモデルに基づく。HMは、たとえば、ITU−T H.264/AVCによるデバイスに勝るビデオコーディングデバイスのいくつかの能力を仮定する。たとえば、H.264は9つのイントラ予測符号化モードを提供するが、HMは35個ものイントラ予測符号化モードを提供する。
[0026]HMによれば、CUは、1つまたは複数の予測ユニット(PU)および/または1つまたは複数の変換ユニット(TU)を含み得る。ビットストリーム内のシンタックスデータは、ピクセルの数に関して最大CUである最大コーディングユニット(LCU:largest coding unit)を定義し得る。概して、CUは、CUがサイズの差異を有しないことを除いて、H.264のマクロブロックと同様の目的を有する。したがって、CUはサブCUに分割され得る。概して、本開示におけるCUへの言及は、ピクチャの最大コーディングユニットまたはLCUのサブCUを指すことがある。
[0027]LCUはサブCUに分割され得、各サブCUはさらにサブCUに分割され得る。ビットストリームのシンタックスデータは、CU深度と呼ばれる、LCUが分割され得る最大回数を定義し得る。それに応じて、ビットストリームは最小コーディングユニット(SCU:smallest coding unit)をも定義し得る。本開示ではまた、コンテキストに応じて、CU、PU、またはTUのいずれかを指すために「ブロック」、「パーティション」、または「部分」という用語を使用する。概して、「部分」は、ビデオフレームの任意のサブセットを指し得る。
[0028]LCUは4分木データ構造に関連付けられ得る。概して、4分木データ構造はCUごとに1つのノードを含み、ルートノードはLCUに対応する。CUが4つのサブCUに分割される場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。たとえば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。CUがさらに分割されない場合、そのCUはリーフCUと呼ばれる。
[0029]その上、リーフCUのTUもそれぞれの4分木データ構造に関連付けられ得る。すなわち、リーフCUは、リーフCUがどのようにTUに区分されるかを示す4分木を含み得る。本開示では、LCUがどのように区分されるかを示す4分木をCU4分木と呼び、リーフCUがどのようにTUに区分されるかを示す4分木をTU4分木と呼ぶ。TU4分木のルートノードは概してリーフCUに対応し、CU4分木のルートノードは概してLCUに対応する。分割されないTU4分木のTUはリーフTUと呼ばれる。
[0030]リーフCUは、1つまたは複数の予測ユニット(PU)を含み得る。概して、PUは、対応するCUの全部または一部分を表し、そのPUの参照サンプルを取り出すためのデータを含み得る。たとえば、PUがインターモード符号化されるとき、PUは、PUの動きベクトルを定義する動き情報を含み得る。動き情報は、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度または1/8ピクセル精度)、動きベクトルが指す参照フレームを含む参照リスト(たとえば、リスト0またはリスト1)を指定する予測方向、および動きベクトルが指す参照フレームの指定されたリスト内の特定の参照フレームを示す参照インデックス値を記述し得る。(1つまたは複数の)PUを定義するリーフCUのデータはまた、たとえば、CUを1つまたは複数のPUに区分することを記述し得る。区分モードは、CUが予測コーディングされないか、イントラ予測モード符号化されるか、またはインター予測モード符号化されるかに応じて異なり得る。
[0031]ブロック(たとえば、ビデオデータの予測ユニット(PU))をコーディングするために、ブロックの予測子が最初に導出される。予測子は、イントラ(I)予測(すなわち、空間的予測)あるいはインター(PまたはB)予測(すなわち、時間的予測)のいずれかを通して導出され得る。したがって、いくつかの予測ユニットは、同じフレーム中の隣接参照ブロックに対する空間的予測を使用してイントラコーディング(I)され得、他の予測ユニットは、他のフレーム中の参照ブロックに対してインターコーディング(PまたはB)され得る。
[0032]予測子が識別されると、元のビデオデータブロックとそれの予測子との間の差分が計算される。この差分は、予測残差とも呼ばれ、コーディングされるべきブロックのピクセルと、参照ブロックの(整数精度ピクセルまたは補間された分数精度ピクセルであり得る)対応する参照サンプル、すなわち、予測子との間のピクセル差分を指す。より良好な圧縮を達成するために、予測残差(すなわち、ピクセル差分値のアレイ)は、概して、たとえば、離散コサイン変換(DCT)、整数変換、カルーネンレーベ(Karhunen-Loeve)(K−L)変換、または他の変換を使用して変換される。
[0033]インター予測を使用してPUをコーディングすることは、現在ブロックと参照フレーム中のブロックとの間の動きベクトルを計算することを伴う。動きベクトルは、動き推定(または動き探索)と呼ばれるプロセスを通して計算される。動きベクトルは、たとえば、参照フレームの参照サンプルに対する、現在フレーム中の予測ユニットの変位を示し得る。参照サンプルは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of squared difference)、または他の差分メトリックによって判断され得るピクセル差分に関して、コーディングされているPUを含むCUの部分にぴったり一致することがわかるブロックであり得る。参照サンプルは、参照フレームまたは参照スライス内のどこにでも発生し得る。いくつかの例では、参照サンプルは、全体的にまたは部分的に補間され、分数ピクセル位置において発生し得る。現在部分に最も良く一致する参照フレームの実際のまたは補間された部分を見つけると、エンコーダは、現在部分の現在動きベクトルを、現在部分から参照フレーム中の一致する部分までの(たとえば、現在部分の中心から一致する部分の中心までの)ロケーションの差分として判断する。
[0034]いくつかの例では、エンコーダは、符号化ビデオビットストリーム中で、各部分について動きベクトルをシグナリングし得る。シグナリングされた動きベクトルは、ビデオデータを復号するために、デコーダによって動き補償を実行するために使用される。ただし、元の動きベクトルを直接シグナリングすると、一般に、情報を搬送するために多数のビットが必要なので、コーディングがあまり効率的でなくなることがある。
[0035]現在部分について動きベクトルを判断するために動き推定が実行されると、エンコーダは、参照フレーム中の一致する部分を現在部分と比較する。この比較は、一般に、上述のように、現在部分から参照フレーム中の(「参照サンプル」と通常呼ばれる)部分を減算することを伴い、いわゆる残差データを生じる。残差データは、現在部分と参照サンプルとの間のピクセル差分値を示す。エンコーダは、次いで、この残差データを空間領域から、周波数領域などの変換領域に変換する。通常、エンコーダは、この変換を達成するために、残差データに離散コサイン変換(DCT)を適用する。得られた変換係数は異なる周波数を表し、エネルギーの大部分が、通常、数個の低周波係数に集中するので、エンコーダは、残差データの圧縮を可能にするためにこの変換を実行する。
[0036]一般に、得られた変換係数は、特に変換係数が最初に量子化される(丸められる)場合、ランレングス符号化を可能にする方法で一緒にグループ化される。エンコーダは、量子化変換係数についてこのランレングス符号化を実行し、次いで、ランレングスコーディングされた量子化変換係数をさらに圧縮するために統計的ロスレス(またはいわゆる「エントロピー」)符号化を実行する。ロスレスエントロピーコーディングを実行した後に、エンコーダは、符号化ビデオデータを含むビットストリームを生成する。
[0037]HMはまた、ピクチャ、すなわち、フレームをタイルに区分することを可能にする。タイルは、通常矩形になり、HMでは矩形である。本開示で説明する技法は非矩形タイルとともに使用され得るが、例示のために矩形タイルの使用について説明する。ピクチャは、それぞれピクチャを列および行に区分する、いくつかの垂直タイル境界といくつかの水平タイル境界とによってタイルに区分され得る。交差する列境界と行境界は矩形タイルを画成する。2つの垂直ピクチャ境界(ピクチャまたはフレームのエッジまたは端部)は2つの垂直タイル境界と見なされ得、2つの水平ピクチャ境界(ピクチャまたはフレームのエッジまたは端部)は2つの水平タイル境界と見なされ得る。一例として、(垂直ピクチャ境界を含む)4つの垂直タイル境界と、(水平ピクチャ境界を含む)3つの水平タイル境界とがある場合、ピクチャは(4−1)×(3−1)=6タイルに区分される。垂直タイル境界と水平タイル境界との間の間隔は、均一であり得るが、均一である必要はない。
[0038]ピクチャ内のタイルの復号順序はタイルラスタ走査順序である。各タイル内で、LCUの復号順序はLCUラスタ走査順序である。各タイルは整数個のLCUからなり得る。
[0039]すべてのタイル境界を越える、ピクセル値予測、動き予測、コーディングモード予測、およびエントロピーコーディングコンテキスト予測を含む、ピクチャ内予測は、フラグtile_boundary_independence_idcによって制御される。フラグtile_boundary_independence_idcが1に等しい場合、タイル境界を越えるピクチャ内予測は可能にされない。そうではなく、フラグtile_boundary_independence_idcが0に等しい場合、タイル境界を越えるピクチャ内予測は、ピクチャ境界またはスライス境界でもあるタイル境界を除いて、可能にされる。
[0040]ピクチャ内予測が可能にされるとき、タイルは、ピクチャ中にタイルがない場合、または等価的に、ただ1つのタイルがある場合と比較して、LCU走査順序を変更するように機能する。ピクチャ内予測が可能にされないとき、タイルは、たとえば、異なる処理コアによる並列処理(符号化および/または復号)を可能にすることができる、独立した区分をも行う。
[0041]HMはまた、ピクチャ、すなわち、フレームをスライスに区分することを可能にする。スライスは、ラスタ走査順序での整数個のLCUからなる。タイルとは異なり、スライス間の境界は必ずしもピクチャを横切る垂直線および/または水平線であるとは限らず、したがってスライスは必ずしも矩形であるとは限らない。スライスは単一のネットワークアブストラクションレイヤ(NAL:network abstraction layer)ユニットに対応し、ピクチャ内予測はスライス境界を越えて許可されない。
[0042]スライス(またはNAL)は2つ以上のタイルを含み得、またはタイルは2つ以上のスライスを含み得る。スライスが2つ以上のタイル中にLCUを含んでいるとき、LCUを含んでいるタイルは連続になる。タイルTとタイルT+1は、T+1中の最初のLCUが送信順序でT中の最後のLCUの直後にくる場合、連続であると言われる。HEVCコーディングプロセスにおけるタイルの使用は、その内容全体が参照により本明細書に組み込まれる、2011年6月30日付けの、Fuldsethら、「Tiles」、ビデオコーディング共同研究部会(JCTVC)文書JCTVC−F335にさらに記載されている。
[0043]上記で説明したように、HMによれば、タイルのコーディング順序はタイルラスタ走査順序である。ただし、タイルラスタ走査順序は、たとえば、並列処理またはROIコーディングを可能にするために、特にピクチャ内予測がタイル境界を越えて可能にされないとき、いくつかの欠点に関連し得る。
[0044]たとえば、タイルが、並列処理を可能にするために使用されるとき、タイルラスタ走査順序は、各タイルのコード化ビデオデータが別個のNALユニット中に含まれることを要求し得る。その結果、個々のタイルのために使用されるNALユニットは最大送信ユニット(MTU:maximum transmission unit)サイズよりも著しく小さくなり得、コード化ビットストリームの効率は、多数のNALユニットに関連するオーバーヘッドによって低減され得る。さらに、誤りを起こしやすい環境では、複数のこれらのNALユニットの損失は、誤り隠蔽(error concealment)技法(たとえば、補間ベースの誤り隠蔽技法)を使用して隣接CUから消失したCUを再構成する能力の損失につながり得る。
[0045]別の例として、タイルは、ROIなど、単独で復号可能なサブピクチャを与えるために使用され得る。そのような場合、ビットストリーム中に、ピクチャの残りのコード化ビデオデータより前にROIのコード化ビデオデータを配置することが望ましいことがある。ただし、ROIは、HMによって指定されるように、タイルがタイルラスタ走査順序でコーディングされたとき、ROIのコード化ビデオデータが最初になり得るようにピクチャ中に位置することはめったにない。むしろ、ROIは、ピクチャの中央にあり得、または、少なくともピクチャの最上部、すなわち、タイルラスタ走査が開始するであろう場所にある可能性は少ない。
[0046]本明細書で説明するタイルグループ化技法によれば、ピクチャ中の複数のタイルの各々は、複数のタイルグループのうちの1つに割り当てられる。本明細書で説明するタイルをグループ化するための技法は、ビデオビットストリームの符号化と復号の両方のための並列処理の改善、誤り耐性の改善、および/またはよりフレキシブルな関心領域(ROI)コーディングとを可能にし得る。
[0047]図1は、本明細書で説明する、タイルグループ化のための技法を利用するように構成され得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、通信チャネル16を介して符号化ビデオを宛先デバイス14に送信するソースデバイス12を含む。符号化ビデオデータはまた、記憶媒体35またはファイルサーバ37に記憶され得、必要に応じて宛先デバイス14によってアクセスされ得る。記憶媒体またはファイルサーバに記憶されたとき、ビデオエンコーダ20は、コード化ビデオデータを記憶媒体に記憶するための、ネットワークインターフェース、コンパクトディスク(CD)、Blu−ray(登録商標)またはデジタルビデオディスク(DVD)バーナーまたはスタンピングファシリティデバイス、あるいは他のデバイスなど、別のデバイスにコード化ビデオデータを与え得る。同様に、ネットワークインターフェース、CDまたはDVDリーダーなど、ビデオデコーダ34とは別個のデバイスが、記憶媒体からコード化ビデオデータを取り出し、取り出されたデータをビデオデコーダ34に与え得る。
[0048]ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆるスマートフォンなどの電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソールなどを含む、多種多様なデバイスのいずれかを備え得る。多くの場合、そのようなデバイスはワイヤレス通信が可能であり得る。したがって、通信チャネル16は、符号化ビデオデータの送信に好適なワイヤレスチャネル、ワイヤードチャネル、またはワイヤレスチャネルとワイヤードチャネルとの組合せを備え得る。同様に、ファイルサーバ37は、インターネット接続を含む任意の標準データ接続を介して宛先デバイス14によってアクセスされ得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または両方の組合せを含み得る。
[0049]本開示の例による、ビデオコーディングプロセスにおけるタイルグループ化のための技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、たとえばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0050]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、カプセル化ユニット22と、変調器/復調器24と、送信機26とを含む。ソースデバイス12において、ビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、および/またはソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムなどのソース、あるいはそのようなソースの組合せを含み得る。一例として、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラフォンまたはビデオフォンを形成し得る。ただし、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例、あるいは符号化ビデオデータがローカルディスクに記憶された適用例に適用され得る。
[0051]キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、ワイヤレス通信プロトコルなどの通信規格に従ってモデム24によって変調され、送信機26を介して宛先デバイス14に送信され得る。モデム24は、信号変調のために設計された様々なミキサ、フィルタ、増幅器または他の構成要素を含み得る。送信機26は、増幅器、フィルタ、および1つまたは複数のアンテナを含む、データを送信するために設計された回路を含み得る。
[0052]ビデオエンコーダ20によって符号化された、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成されたビデオはまた、後で消費するために記憶媒体35またはファイルサーバ37に記憶され得る。記憶媒体35は、Blu−rayディスク、DVD、CD−ROM、フラッシュメモリ、または符号化ビデオを記憶するための任意の他の好適なデジタル記憶媒体を含み得る。記憶媒体35に記憶された符号化ビデオは、次いで、復号および再生のために宛先デバイス14によってアクセスされ得る。
[0053]ファイルサーバ37は、符号化ビデオを記憶することと、その符号化ビデオを宛先デバイス14に送信することとが可能な任意のタイプのサーバであり得る。例示的なファイルサーバには、(たとえば、ウェブサイト用の)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)デバイス、ローカルディスクドライブ、または符号化ビデオデータを記憶し、それを宛先デバイスに送信することが可能な他のタイプのデバイスがある。ファイルサーバ37からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、または両方の組合せであり得る。ファイルサーバ37は、インターネット接続を含む任意の標準データ接続を介して宛先デバイス14によってアクセスされ得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適である、ワイヤレスチャネル(たとえば、Wi−Fi接続)、ワイヤード接続(たとえば、DSL、ケーブルモデム、イーサネット(登録商標)、USBなど)、または両方の組合せを含み得る。
[0054]図1の例では、宛先デバイス14は、受信機28と、モデム30と、ビデオデコーダ34と、ディスプレイデバイス36とを含む。宛先デバイス14の受信機28はチャネル16を介して情報を受信し、モデム30はその情報を復調して、ビデオデコーダ34のための復調されたビットストリームを生成する。チャネル16を介して通信される情報は、ビデオデータを復号する際にビデオデコーダ34が使用する、ビデオエンコーダ20によって生成された様々なシンタックス情報を含み得る。そのようなシンタックスはまた、記憶媒体35またはファイルサーバ37に記憶された符号化ビデオデータとともに含まれ得る。ビデオエンコーダ20およびビデオデコーダ34の各々は、ビデオデータを符号化または復号することが可能であるそれぞれのエンコーダデコーダ(コーデック)の一部を形成し得る。
[0055]ディスプレイデバイス36は、宛先デバイス14と一体化されるかまたはその外部にあり得る。いくつかの例では、宛先デバイス14は、一体型ディスプレイデバイスを含み、また、外部ディスプレイデバイスとインターフェースするように構成され得る。他の例では、宛先デバイス14はディスプレイデバイスであり得る。概して、ディスプレイデバイス36は、復号されたビデオデータをユーザに対して表示し、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0056]図1の例では、通信チャネル16は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体、あるいはワイヤレス媒体とワイヤード媒体との任意の組合せを備え得る。通信チャネル16は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信チャネル16は、概して、ワイヤード媒体またはワイヤレス媒体の任意の好適な組合せを含む、ビデオデータをソースデバイス12から宛先デバイス14に送信するのに好適な任意の通信媒体、または様々な通信媒体の集合体を表す。通信チャネル16は、ソースデバイス12から宛先デバイス14への通信を可能にするのに有用であり得るルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0057]ビデオエンコーダ20およびビデオデコーダ34は、現在開発中のHEVC規格などのビデオ圧縮規格に従って動作し得、概して、HEVCに関連する現在または最終のHMに準拠し得る。代替的に、ビデオエンコーダ20およびビデオデコーダ34は、代替的にMPEG−4,Part10,アドバンストビデオコーディング(AVC)と呼ばれるITU−T H.264規格など、他のプロプライエタリ規格または業界規格、あるいはそのような規格の拡張に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。他の例にはMPEG−2およびITU−T H.263がある。
[0058]図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ34は、それぞれオーディオエンコーダおよびオーディオデコーダと統合され得、また、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するための適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、いくつかの例では、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0059]ビデオエンコーダ20およびビデオデコーダ34はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、またはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオエンコーダ20およびビデオデコーダ34の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。本開示で説明するビデオコーダは、ビデオエンコーダまたはビデオデコーダを指し得る。同様に、ビデオコーディングユニットはビデオエンコーダまたはビデオデコーダを指し得る。同様に、ビデオコーディングはビデオ符号化またはビデオ復号を指し得る。
[0060]図1に示すように、ソースデバイス12はカプセル化ユニット22を備え得、宛先デバイス14はカプセル化解除ユニット32を備え得る。カプセル化ユニット22およびカプセル化解除ユニット32は、タイルをグループ化するために、本明細書で説明する技法を実装し得る処理ユニットの例を表す。
[0061]たとえば、ビデオエンコーダ20は、ピクチャをタイルに区分し、タイルをグループ化し、タイルへの区分とタイルのグループ化とに従ってピクチャのビデオデータを符号化し得る。いくつかの例では、ビデオエンコーダ20の並列処理コアは、タイルの異なるグループからのビデオデータをそれぞれ符号化し得る。カプセル化ユニット22は、タイルのグループ化に従う順序でビットストリーム中にタイルからの符号化ビデオデータを配置し、ピクチャがどのようにタイルに区分されたかと、タイルがどのようにグループ化されるかとを示すシンタックス情報をビットストリーム中に配置するように構成され得る。
[0062]カプセル化解除ユニット32は、符号化ビデオデータと、タイルおよびタイルグループ化についてのシンタックス情報とを受信し、タイルグループ化シンタックス情報に従ってタイルのための符号化ビデオデータをデコーダ34に与え得る。たとえば、カプセル化解除ユニット32は、タイルグループ化シンタックスに基づいて、デコーダ34の異なる並列処理コアに、異なるタイルグループのための符号化ビデオデータをダイレクトし得る。デコーダ34は、タイルのシンタックス情報と他のシンタックス情報とに従って符号化ビデオデータを復号し得る。
[0063]図2A〜図2Dは、タイルの各々が複数のタイルグループのうちの1つに割り当てられる、タイルに区分される例示的なピクチャを示す概念図である。たとえば、図2Aは、(2つの水平ピクチャ境界に加えて)7つの水平境界によって8つの水平タイル42A〜Dおよび44A〜Dに区分される例示的なピクチャ40を示している。タイル42A〜Dは第1のタイルグループであり、タイル44A〜Dは第2のタイルグループである。図2Aの例では、第1のタイルグループからのタイル42A〜Dは、第2のタイルグループのタイル44A〜Dとインターリーブされる、すなわち、交互に配置される。
[0064]いくつかの例では、エンコーダ20は、エンコーダ20および/またはデコーダ34の2つの並列処理コアが、それぞれタイル42A〜Dの第1のグループおよびタイル44A〜Dの第2のグループを独立して符号化または復号し得るように、タイル境界を越えるピクチャ内予測を可能にしないことがある。タイル42A〜Dおよび44A〜Dが図2Aに示す方法でグループ化されなかった場合、タイルのビデオデータは、タイルラスタ走査順序、すなわち、タイル42A、タイル44A、タイル42B、タイル44Bなどでコーディングされ、送信または受信されるであろう。したがって、デコーダ34は、同じ順序、すなわち、タイル42A、タイル44A、タイル42B、タイル44Bなどでタイル中のコーディングユニットを復号するであろう。そのような場合、タイルラスタ走査順序は、タイルの各々について別個のNALユニットが生成される、すなわち、8つのタイル42A〜Dおよび44A〜Dについて8つのNALユニットが生成されることを要求するであろう。ピクチャ40の符号化ビデオデータのための8つのNALユニットの生成および送信は、たとえば、各NALユニットがMTUサイズよりも著しく小さくなり得、より少ない数のNALユニットに対して複数のNALユニットによってより多くのオーバーヘッドが提示され得るので、本開示の本技法によって可能であるものよりもあまり効率的でないことがある。たとえば、8つのNALユニットの各々のためのヘッダおよび/または他の情報がビットストリーム中に含まれる必要があり、それによりオーバーヘッドが増加するであろう。
[0065]しかしながら、第1のタイルグループへのタイル42A〜Dのグループ化と、第2のタイルグループへのタイル44A〜Dのグループ化とは、ピクチャ40の符号化ビデオデータがより少ない数のNALユニットを使用して送信されることを可能にし得る。たとえば、タイル42A〜42Dが、MTUサイズ以下であるサイズを有するNALユニットを生成するように組み合わせられ得る場合、タイル42A〜42Bは単一のNALユニットに組み合わせられ得る。同じことがタイル44A〜44Dに当てはまり得る。したがって、この例では、エンコーダ20は、2つのNALユニット、すなわち、第1のタイルグループのタイル42A〜Dのための第1のNALユニットと、第2のタイルグループのタイル44A〜Dのための第2のNALユニットとを生成し得、デコーダ34は、それらの2つのNALユニットを受信し得る。これらの2つのNALユニットは、MTUサイズにより近接し得、ピクチャ40の符号化ビデオデータのためにただ2つのNALヘッダを必要とするであろう。様々な例では、タイルのサイズとMTUサイズとに応じて、タイルグループの2つ、3つ、4つまたはそれ以上のタイルがNALユニット中に含まれ得、そのグループのための追加のタイルが追加のNALユニット中に含まれ得る。言い換えれば、グループのタイルのために2つ以上のNALユニットが必要とされ得る。しかしながら、本開示によるタイルのグループ化は、ピクチャのために必要とされるNALユニットの数が、タイルラスタ走査順序でタイルをコーディングすることに対して低減されることを可能にし得る。
[0066]いくつかの例では、エンコーダ20は、2つのタイルグループのコード化ビデオデータをそれぞれのコード化スライス中に配置し得、カプセル化ユニット22は、次いで、それらのコード化スライスをそれぞれのパケット、たとえば、リアルタイムトランスポートプロトコル(RTP:Real-time Transport Protocol)パケット中にカプセル化し得る。したがって、いくつかの例では、タイルのグループはスライス中で一緒に提示され得、そのスライスは、次いで、単一のNALユニット中で与えられ得る。NALユニットは1つまたは複数のパケットに分割され得る。タイルグループは、図2Aに示すように、ピクチャ40内で互いに空間的にインターリーブされたタイルを含むので、パケットのうちの1つが紛失した場合、デコーダ34は、受信された1つまたは複数のパケット中の復号されたタイルを使用して紛失パケット中のタイルによってカバーされる領域を再構成することが依然として可能であり得る。デコーダ34は、様々な誤り隠蔽技法のいずれかを使用して紛失パケット中のタイルによってカバーされる領域を再構成し得る。誤り隠蔽において、消失したCUが、受信され、正しく復号され得る1つまたは複数の隣接CUを有する場合、デコーダ34は、たとえば、補間を介して、正しく復号された隣接CUを使用して消失したCUを再構成し得る。それぞれのパケット中にタイルのインターリーブされたグループを配置することは、パケットのうちの1つが紛失した場合、他のパケット中で搬送されるCUの誤り隠蔽のために利用可能な隣接CUがある可能性を増加させる。
[0067]図2B〜図2Dは、タイルに区分される他の例示的なピクチャを示しており、各タイルは複数のタイルグループのうちの1つに割り当てられ、各タイルグループは複数のタイルを含む。上記で説明した図2Aのタイルのグループ化と同様に、図2B〜図2Dに示すタイルのグループ化は、並列化効率と誤り耐性とに関して利点を与え得る。
[0068]たとえば、図2Bは、(2つの水平ピクチャ境界に加えて)8つの水平タイル境界によって9つの水平タイル52A〜C、54A〜Cおよび56A〜Cに区分される例示的なピクチャ50を示している。タイル52A〜Cは第1のタイルグループであり、タイル54A〜Cは第2のタイルグループであり、タイル56A〜Cは第3のタイルグループである。図2Bの例では、3つのタイルグループのタイルはインターリーブされる。
[0069]タイル52A〜C、54A〜Cおよび56A〜Cを3つのタイルグループのうちのそれぞれのタイルグループにグループ化することは、ピクチャ50の符号化ビデオデータがより少ない数のNALユニットを使用して送信されることを可能にし得、これらのNALユニットは、MTUサイズにより近接し得、ピクチャ50の符号化ビデオデータのためにより少ないNALヘッダを必要とするであろう。さらに、いくつかの例では、エンコーダ20は、3つのタイルグループのコード化ビデオデータをそれぞれのコード化スライス中に配置し得、カプセル化ユニット22は、次いで、それらのコード化スライスをそれぞれのパケット中にカプセル化し得、それにより、図2Aに関して上記で説明したように、パケットのうちの1つまたは複数が紛失した場合、様々な誤り隠蔽技法のいずれかを使用したデコーダ34による再構成が可能になり得る。
[0070]タイル52A〜C、54A〜Cおよび56A〜Cを3つのタイルグループのうちのそれぞれのタイルグループにグループ化することはまた、ビデオエンコーダまたはデコーダの並列処理コアによるピクチャ50のビデオデータの並列処理またはコーディングを可能にし得る。エンコーダまたはデコーダの並列処理コアは、並列ハードウェアコア、または単一ハードウェアコア上で実行される並列処理スレッドであり得る。並列処理は、実質的に同じ時間にそれぞれの処理コアによって異なるグループに割り当てられたタイルに関連するビデオデータの少なくともいくつかの部分をコーディングすることを含み得る。並列処理のために、処理コアは、同じ時間にピクチャのビデオデータをコーディングすることを開始または終了し得るが、必ずしもそうするとは限らない。ただし、並列処理の少なくとも一部分中に、コアは同時にコーディングしている。
[0071]図2Cは、(2つの垂直ピクチャ境界に加えて)7つの垂直タイル境界によって8つの垂直タイル62A〜Dおよび64A〜Dに区分される例示的なピクチャ60を示している。タイル62A〜Dは第1のタイルグループであり、タイル64A〜Dは第2のタイルグループである。図2Cの例では、2つのグループのタイルはインターリーブされる。
[0072]図2Dは、(2つの垂直ピクチャ境界に加えて)8つの垂直タイル境界によって9つの垂直タイル72A〜C、74A〜Cおよび76A〜Cに区分される例示的なピクチャ70を示している。タイル72A〜Cは第1のタイルグループであり、タイル74A〜Cは第2のタイルグループであり、タイル76A〜Cは第3のタイルグループである。図2Dの例では、3つのグループのタイルはインターリーブされる。
[0073]図3は、タイルの各々が2つのタイルグループのうちの1つに割り当てられる、複数のタイルに区分される別の例示的なピクチャ80を示す概念図である。図示の例では、ピクチャ80は、(2つの垂直ピクチャ境界と2つの水平ピクチャ境界とに加えて)8つの垂直タイル境界と7つの水平タイル境界とによって72個のタイルに区分される。図3に示すハッチングされた方形または空の方形の各々がタイルである。72個のタイルのうち、説明しやすいように、第1のタイルグループのタイル82A〜Eと、第2のタイルグループのタイル84A〜Dとがラベルをつけられている。図3に示すように、これらの2つのグループのタイルは「チェッカーボード」パターンで交互に配置される。図2A〜2Dに示したグループ化のように、図3に示すタイルのグループ化は、並列化効率と誤り耐性とに関して利点を与え得る。
[0074]図4は、2つの水平タイル境界と2つの垂直タイル境界とによって複数のタイル92および94A〜Hに区分される例示的なピクチャ90を示す概念図である。タイル92は第1のタイルグループであり、タイル94A〜Hは第2のタイルグループである。したがって、第1のタイルグループは、この例では単一のタイルを含む。図4の例は、第1のタイルグループ中に単一のタイル92を含むが、他の例は、第1のタイルグループ中に2つ以上のタイル92を含み得る。
[0075]いくつかの例では、ピクチャのシーケンス中の各ピクチャは図4に示す方法で区分され、タイルのサブセット、たとえば、図4のタイル92が、ピクチャのシーケンス中のすべてのピクチャ中で同じ矩形領域をカバーする。すべてのピクチャのこの矩形領域は、同じピクチャからの他の領域と他のピクチャとは無関係に復号され得る。そのような領域は、単独で復号可能なサブピクチャと呼ばれることがある。そのような領域は、たとえば、ユーザ選好、宛先デバイス14の限られた復号能力、またはファイルサーバ37と宛先デバイス14との間の通信チャネル16の限られたネットワーク帯域幅により、いくつかのクライアントにとって唯一のROIであり得る。
[0076]宛先デバイス14に関連するクライアントは、このROIを復号するのに十分であるコード化ビデオデータのみの送信を要求すること、あるいはビデオデコーダ34がこのROI外のビデオデータを廃棄する(またはそれの損失を復元することを試みない)ことを要求することを選定し得る。ROIのためのコード化ビデオデータのそのような選択的復号を可能にするために、カプセル化ユニット22は、ROIをカバーする1つまたは複数のタイル、たとえば、図4のタイル92のコード化ビデオデータをビットストリーム中の他のタイルのコード化ビデオデータの前に配置し、および/または、ROIのコード化ビデオデータを非ROIビデオデータからの別個のスライス、パケット、またはNALユニット中に配置し得る。
[0077]図5は、タイル境界とスライス境界とによってピクチャを区分することの例を示す概念図である。図5の例では、ピクチャ100は、2つの垂直タイル境界106Aおよび106Bによって3つの垂直タイル102A、102Bおよび104に区分される。タイル102Aおよび102Bは第1のタイルグループであり、タイル104は第2のタイルグループである。図5はまた、タイル内にLCUを示しており、それらのタイルのうち、説明しやすいようにLCU1〜12のみにラベルがつけられている。
[0078]上記で説明したように、(前のビデオコーディング規格のような)HMは、ピクチャ、すなわち、フレームをスライスに区分することを可能にし、それらのスライスの各々はラスタ走査順序での整数個のLCUからなる。図5は、ピクチャ100の2つのスライス間の例示的なスライス境界108を示している。図5でわかるように、タイル境界106とは異なり、スライス境界108は必ずしもピクチャを横切る垂直線および/または水平線であるとは限らず、したがってスライスは必ずしも矩形であるとは限らない。
[0079]スライスは単一のNALユニットに対応し、ピクチャ内予測はスライス境界を越えて許可されない。スライス(またはNALユニット)は2つ以上のタイルを含み得、またはタイルは2つ以上のスライスを含み得る。言い換えれば、タイル102A内の少なくとも2つのスライスに関して示すように、タイル内に複数のスライスがあり得る。さらに、スライスは2つ以上のタイルからのLCUを含み得、たとえば、NALユニットは2つ以上のタイルからのコード化ビデオデータを含み得る。
[0080]いくつかの例では、1つのタイルグループに割り当てられたタイルに関連するビデオデータは、共通の1つまたは複数のスライスまたはNALユニット中に配置され、別のタイルグループに割り当てられたタイルに関連するビデオデータは、共通の1つまたは複数の他のスライスまたはNALユニット中に配置される。同様に、1つのタイルグループに割り当てられたタイルに関連するビデオデータは、共通の1つまたは複数のパケット中に配置され得、別のタイルグループに割り当てられたタイルに関連するビデオデータは、共通の1つまたは複数の他のパケット中に配置され得る。いくつかの例では、可能な場合、スライス、NALユニット、またはパケットの許容サイズに対するタイルグループ中のタイルのサイズを仮定すれば、1つのタイルグループに割り当てられたタイルに関連するビデオデータを単一のスライス、NALユニット、またはパケット中に配置することが好ましくなり得る。パケット、たとえば、RTPパケットは、必ずしもスライスまたはNALユニットに対応するとは限らず、たとえば、複数のパケットが各NALユニットについて必要とされるか、または複数のNALユニットが単一のパケット中に含まれ得る。ただし、いくつかの例では、共通のタイルグループに割り当てられたタイルに関連するビデオデータは、単一の共通のNALユニット(スライス)中に配置され得、その場合、その単一の共通のNALユニット(スライス)は、単一の共通のパケット中に含まれるか、または複数のパケットに区分され得る。
[0081]異なるタイルグループに割り当てられたタイルに関連するビデオデータを、異なるスライス、NALユニット、またはパケットにそのように分離することは、共通のグループに割り当てられたタイルに関連するビデオデータをビットストリーム中にラスタ走査順序で配置するのではなく、ビデオデータをビットストリーム中に連続的に配置することを可能にし得る。そのように分離することはまた、異なるグループに割り当てられたタイルに関連するビデオデータをビットストリーム中にタイルグループに基づく順序で順序付けることを可能にし得、それにより、ビデオデコーダによる単独で復号可能なサブピクチャまたはROIの選択的復号が可能になり得る。そのように分離することはまた、本明細書で説明するように、異なるタイルグループのためのビデオデータの並列処理、または誤り回復を可能にし得る。さらに、共通のタイルグループに割り当てられたタイルに関連するビデオデータを共通のNALユニットまたはスライス内に配置することは、共通のタイルグループのタイルがラスタ走査順序で隣接しないときでも、タイル境界を越える、たとえば、タイルグループ内のタイル境界を越えるが、タイルグループ間ではない、制限されたピクチャ内予測を可能にし得る。
[0082]図6は、本明細書で開示するタイルをグループ化するための技法を実装し得る、カプセル化ユニット22とともにビデオエンコーダ20の例示的な構成を示すブロック図である。ビデオエンコーダ20について、例示のためにHEVCコーディングのコンテキストにおいて説明するが、タイルのグループ化を可能にし得る他のコーディング規格または方法に関して本開示を限定するものではない。ビデオエンコーダ20は、ビデオフレーム内のCUのイントラコーディングおよびインターコーディングを実行し得る。イントラコーディングは、所与のビデオフレーム内のビデオデータの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの現在フレームと前にコーディングされたフレームとの間の時間的冗長性を低減または除去するために時間的予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースのビデオ圧縮モードのいずれかを指し得る。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースのビデオ圧縮モードのいずれかを指し得る。
[0083]図6に示すように、ビデオエンコーダ20は、ビデオデータ、たとえば、符号化されるべきピクチャ内の現在ビデオブロックを受信する。図6の例において、ビデオエンコーダ20はモード選択ユニット110を含む。モード選択ユニット110は、動き推定ユニット112と、動き補償ユニット114と、イントラ予測ユニット116と、パーティションユニット118とを含む。ビデオエンコーダ20は、加算器120と、変換モジュール122と、量子化ユニット124と、エントロピー符号化ユニット126とをさらに備える。図6に示す変換モジュール122は、残差データのブロックに実際の変換または変換の組合せを適用するユニットであり、CUの変換ユニット(TU)と呼ばれることもある変換係数のブロックと混同されるべきでない。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット128と、逆変換モジュール130と、加算器132とを含む。再構成されたビデオブロックは参照ピクチャメモリ134に記憶され得る。再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するデブロッキングフィルタも含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器132の出力をフィルタ処理することになる。
[0084]符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオフレームまたはスライスを受信する。フレームまたはスライスは複数のビデオブロックに分割され得る。動き推定ユニット112および動き補償ユニット114は、時間的予測を行うために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対して受信されたビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット116は、代替的に、空間的予測を行うために、コーディングされるべきブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対して受信されたビデオブロックのイントラ予測コーディングを実行し得る。ビデオエンコーダ20は、たとえば、ビデオデータの各ブロックに適切なコーディングモードを選択するために、複数のコーディングパスを実行し得る。
[0085]その上、パーティションユニット118は、前のコーディングパスにおける前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、パーティションユニット118は、初めにフレームまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット110は、LCUをサブCUに区分することを示す4分木データ構造をさらに生成し得る。4分木のリーフノードCUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。パーティションユニット118はまた、フレームまたはピクチャをスライスまたは他の大きいユニットに区分し得る。たとえば、パーティションユニット118は、各タイルが矩形であり、整数個のLCUを含むように、たとえば、1つまたは複数の水平および/または垂直タイル境界を定義することによって、本明細書で説明する方法でピクチャをタイルに区分し得る。
[0086]ブロックをコーディングするために時間的予測が使用されるか空間的予測が使用されるかにかかわらず、モード選択ユニット110は、残差ブロックデータを生成するために、得られたイントラ予測ブロックまたはインター予測ブロック(たとえば、予測ユニット(PU))を加算器120に与え、参照フレーム中で使用するための符号化ブロックを再構成するために、得られたイントラ予測ブロックまたはインター予測ブロックを加算器132に与える。加算器132は、以下でより詳細に説明するように、予測ブロックを、そのブロックについての、逆変換モジュール130からの逆量子化され逆変換されたデータと合成して、符号化ブロックを再構成する。いくつかのビデオフレームはIフレームに指定され得、Iフレーム中のすべてのブロックはイントラ予測モードで符号化される。場合によっては、たとえば、動き推定ユニット112によって実行された動き探索によって得られたブロックの予測が不十分であったとき、イントラ予測モジュール116は、PフレームまたはBフレーム中のブロックのイントラ予測符号化を実行し得る。
[0087]動き推定ユニット112と動き補償ユニット114とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定(または動き探索)は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、参照フレームの参照サンプルに対する、現在フレーム中の予測ユニットの変位を示し得る。動き推定ユニット112は、予測ユニットを参照ピクチャメモリ134に記憶された参照フレームの参照サンプルと比較することによってインターコード化フレームの予測ユニットの動きベクトルを計算する。参照サンプルは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of squared difference)、または他の差分メトリックによって決定され得るピクセル差分に関して、コーディングされているPUを含むCUの部分にぴったり一致することがわかるブロックであり得る。参照サンプルは、参照フレームまたは参照スライス内のどこにでも発生し得、必ずしも、参照フレームまたはスライスのブロック(たとえば、コーディングユニット)境界において発生するとは限らない。いくつかの例では、参照サンプルは分数ピクセル位置において発生し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット112は、フルピクセル位置と分数ピクセル位置とに対する動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
[0088]動き推定ユニット112は、計算された動きベクトルをエントロピー符号化ユニット126と動き補償ユニット114とに送る。動きベクトルによって識別される参照フレームの部分は参照サンプルと呼ばれることがある。動き補償ユニット114は、たとえば、PUの動きベクトルによって識別される参照サンプルを取り出すことによって、現在CUの予測ユニットについての予測値を計算し得る。
[0089]イントラ予測モジュール116は、動き推定ユニット112と動き補償ユニット114とによって実行されるインター予測の代替として、受信ブロックをイントラ予測し得る。イントラ予測モジュール116は、隣接する、前にコーディングされたブロック、たとえば、ブロックについての左から右へ、上から下への符号化順序を仮定すると、現在ブロックの上、右上、左上、または左のブロックに対して受信ブロックを予測し得る。イントラ予測モジュール116は多種多様なイントラ予測モードで構成され得る。たとえば、イントラ予測モジュール116は、符号化されているCUのサイズに基づいて、一定数の方向性予測モード、たとえば、35個の方向性予測モードで構成され得る。
[0090]イントラ予測モジュール116は、たとえば、様々なイントラ予測モードの誤差値を計算し、最も低い誤差値を生じるモードを選択することによって、イントラ予測モードを選択し得る。方向性予測モードは、空間的に隣接するピクセルの値を合成し、その合成された値をPU中の1つまたは複数のピクセル位置に適用するための機能を含み得る。PU中のすべてのピクセル位置の値が計算されると、イントラ予測モジュール116は、PUと符号化されるべき受信ブロックとの間のピクセル差分に基づいて予測モードの誤差値を計算し得る。イントラ予測モジュール116は、許容できる誤差値を生じるイントラ予測モードが発見されるまでイントラ予測モードをテストし続け得る。イントラ予測モジュール46は、次いで、PUを加算器120に送り、ブロックについての選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット116に送り得る。
[0091]ビデオエンコーダ20は、コーディングされている元のビデオブロックから、動き補償ユニット114またはイントラ予測モジュール116によって計算された予測データを減算することによって残差ブロックを形成する。加算器120は、この減算演算を実行する1つまたは複数の構成要素を表す。残差ブロックはピクセル差分値の2次元行列に対応し得、残差ブロック中の値の数は、残差ブロックに対応するPU中のピクセルの数と同じである。残差ブロック中の値は、PU中と、コーディングされるべき元のブロック中とのコロケートピクセルの値の差分、すなわち、誤差に対応し得る。差分は、コーディングされるブロックのタイプに応じてクロマ差分またはルーマ差分であり得る。
[0092]変換モジュール122は、残差ブロックから1つまたは複数の変換ユニット(TU)を形成し得る。変換モジュール122は、複数の変換の中から変換を選択する。変換は、ブロックサイズ、コーディングモードなど、1つまたは複数のコーディング特性に基づいて選択され得る。変換モジュール122は、次いで、選択された変換をTUに適用して、変換係数の2次元アレイを備えるビデオブロックを生成する。変換モジュール122は、選択された変換パーティションを符号化ビデオビットストリーム中でシグナリングし得る。
[0093]変換モジュール122は、得られた変換係数を量子化ユニット124に送り得る。量子化ユニット124は、次いで、その変換係数を量子化し得る。エントロピー符号化ユニット126が、次いで、走査モードに従って、行列中の量子化された変換係数の走査を実行し得る。本開示では、エントロピー符号化ユニット126が走査を実行するものとして説明する。ただし、他の例では、量子化ユニット124などの他の処理ユニットが走査を実行し得ることを理解されたい。
[0094]変換係数が1次元アレイに走査されると、エントロピー符号化ユニット126は、CAVLC、CABAC、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、または別のエントロピーコーディング方法などのエントロピーコーディングを係数に適用し得る。
[0095]CAVLCを実行するために、エントロピー符号化ユニット126は、送信されるべきシンボルの可変長コードを選択し得る。VLCのコードワードは、相対的により短いコードがより可能性が高いシンボルに対応し、より長いコードがより可能性が低いシンボルに対応するように構築され得る。このようにして、VLCの使用は、たとえば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。
[0096]CABACを実行するために、エントロピー符号化ユニット126は、送信されるべきシンボルを符号化するために、あるコンテキストに適用すべきコンテキストモデルを選択し得る。コンテキストは、たとえば、隣接値が非0であるか否かに関係し得る。エントロピー符号化ユニット126はまた、選択された変換を表す信号など、シンタックス要素をエントロピー符号化し得る。本開示の技法によれば、エントロピー符号化ユニット126は、コンテキストモデル選択のために使用されるファクタの中でも、たとえば、イントラ予測モードのためのイントラ予測方向、シンタックス要素に対応する係数の走査位置、ブロックタイプ、および/または変換タイプに基づいて、これらのシンタックス要素を符号化するために使用されるコンテキストモデルを選択し得る。
[0097]エントロピー符号化ユニット126によるエントロピーコーディングの後に、得られた符号化ビデオは、カプセル化ユニット22に与えられ得、次いで、ビデオデコーダ34などの別のデバイスに送信されるか、あるいは後で送信するかまたは取り出すためにアーカイブされ得る。エントロピー符号化ユニット126はまた、モード選択ユニット110によってブロックのために選択されたコーディングモードと、パーティションユニット118によって、ピクチャのビデオデータを、たとえば、タイルおよび/またはスライスに区分することとを示すシンタックス要素など、シンタックス要素を受信し、符号化し得る。エントロピー符号化ユニット126は、たとえば、ビデオデコーダ34など、別のデバイスに送信するために、あるいは後で送信するかまたは取り出すためにアーカイブするために、コード化シンタックス要素をカプセル化ユニット22に与える。
[0098]場合によっては、エントロピー符号化ユニット126またはビデオエンコーダ20の別のユニットは、エントロピーコーディングに加えて、他のコーディング機能を実行するように構成され得る。たとえば、エントロピー符号化ユニット126は、CUおよびPUのコード化ブロックパターン(CBP:coded block pattern)値を決定するように構成され得る。また、場合によっては、エントロピー符号化ユニット126は係数のランレングスコーディングを実行し得る。
[0099]逆量子化ユニット128および逆変換モジュール130は、それぞれ逆量子化および逆変換を適用して、たとえば参照ブロックとして後で使用するために、ピクセル領域において残差ブロックを再構成する。加算器132は、再構成された残差ブロックを、動き補償ユニット114によって生成された動き補償予測ブロックに加算して、再構成されたビデオブロックを生成する。いくつかの例では、再構成された残差ブロックは、たとえば、デブロッキングフィルタによってフィルタ処理され得る。フィルタ処理後に、フィルタ処理された再構成されたビデオブロックは、次いで、参照ピクチャメモリ134に記憶される。動き補償ユニット114は、残差ブロックを参照ピクチャメモリ134のフレームのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット114はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するサブ整数ピクセル値を計算し得る。
[0100]カプセル化ユニット22は、ビデオエンコーダ20から符号化ビデオデータとシンタックス要素とを受信する。カプセル化ユニット22は、本明細書で説明する技法に従って、タイルをグループ化し、タイルグループに関連する符号化ビデオデータをNALユニット中に配置し、たとえば、異なるタイルグループに関連する符号化データを異なるパケット中に配置するために、NALユニットをパケット中に配置し、符号化ビデオデータ(パケット)を順序付け得る。カプセル化ユニット22はまた、たとえば、ビデオデータがどのようにパーティションユニット118によってタイルに区分されたかと、タイルがどのようにカプセル化ユニット22によってグループ化されたかとを示す、コード化シンタックス要素をビットストリーム中に含み得る。
[0101]図7は、カプセル化解除ユニット32とともにビデオデコーダ34の例示的な構成を示すブロック図である。カプセル化解除ユニット32が、カプセル化ユニット22から、符号化ビデオデータとシンタックス要素とを含むビットストリームを受信する。カプセル化解除ユニット32は、シンタックス要素に従って符号化ビデオデータをビデオデコーダ34に与える。たとえば、ビデオデコーダ34が複数の並列処理コアを備える例では、カプセル化解除ユニット32は、異なるタイルグループに関連する符号化ビデオデータを、並列処理コア、たとえば、ハードウェアコアまたはスレッドの異なる各々に与え得る。ビデオデコーダ34が複数の並列処理コアを備える例では、図7に示すビデオデコーダ34の構成要素の少なくとも一部または全部が、各処理コアについて繰り返され得る。いくつかの例では、図7に示すビデオデコーダ34の構成要素の一部は、異なる処理コアによって共有され得る。別の例として、カプセル化解除ユニット32は、ROIをカバーするタイルグループに関連する符号化ビデオデータをビデオデコーダ34に与え、ROIをカバーしない1つまたは複数のタイルグループに関連するビデオデータを廃棄し得る(あるいは場合によってはビデオデコーダに差分的に与え得る)。
[0102]図7の例では、ビデオデコーダ34は、エントロピー復号ユニット140と、動き補償ユニット142と、イントラ予測モジュール144と、逆量子化ユニット146と、逆変換ユニット148と、復号ピクチャバッファ152と、加算器150とを含む。ビデオデコーダ34は、いくつかの例では、ビデオエンコーダ20(図6参照)に関して説明した符号化パスとは概して逆の復号パスを実行し得る。動き補償ユニット142は、エントロピー復号ユニット140から受信された動きベクトルに基づいて予測データを生成し得、イントラ予測ユニット144は、エントロピー復号ユニット140から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0103]復号プロセス中に、ビデオデコーダ34は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化ビデオビットストリームを受信する。エントロピー復号ユニット140は、変換係数の1次元アレイ、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックス要素を取り出すために、符号化ビットストリームに対してエントロピー復号プロセスを実行する。エントロピー復号ユニット140は、動き補償ユニット142またはイントラ予測モジュール144に、変換係数、動きベクトルまたはイントラ予測モードインジケータ、および他のシンタックス要素を転送する。使用されるエントロピー復号プロセスは、ビデオエンコーダ20によって使用されたエントロピーコーディング(たとえば、CABAC、CAVLCなど)に依存する。エンコーダによって使用されたエントロピーコーディングプロセスは、符号化ビットストリーム中でシグナリングされるか、または所定のプロセスであり得る。
[0104]いくつかの例では、エントロピー復号ユニット140(または逆量子化ユニット146)は、ビデオエンコーダ20のエントロピー符号化ユニット126(または量子化ユニット124)によって使用された走査モードをミラーリングする走査を使用して受信値を走査し得る。係数の走査は逆量子化ユニット146において実行され得るが、走査については、例示のために、エントロピー復号ユニット140によって実行されるものとして説明する。さらに、説明しやすいように別個の機能ユニットとして示されているが、ビデオデコーダ34のエントロピー復号ユニット140、逆量子化ユニット146、および他のユニットの構造および機能は互いに高度に統合され得る。
[0105]逆量子化ユニット146は、ビットストリーム中で与えられ、エントロピー復号ユニット140によって復号された、量子化変換係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化プロセスは、たとえば、HEVCのために提案されたプロセスまたはH.264復号規格によって定義されたプロセスと同様の、従来のプロセスを含み得る。逆量子化プロセスは、量子化の程度を決定し、同様に、適用されるべき逆量子化の程度を決定するための、CUについてビデオエンコーダ20によって計算される量子化パラメータQPの使用を含み得る。逆量子化ユニット146は、係数が1次元アレイから2次元アレイに変換される前または変換された後に変換係数を逆量子化し得る。
[0106]逆変換モジュール148は、逆量子化された変換係数に逆変換を適用する。いくつかの例では、逆変換モジュール148は、ビデオエンコーダ20からのシグナリングに基づいて、あるいはブロックサイズ、コーディングモードなどの1つまたは複数のコーディング特性から変換を推論することによって、逆変換を決定し得る。いくつかの例では、逆変換モジュール148は、現在ブロックを含むLCUのための4分木のルートノードにおけるシグナリングされた変換に基づいて、現在ブロックに適用すべき変換を決定し得る。代替的に、変換は、LCU4分木中のリーフノードCUのためのTU4分木のルートにおいてシグナリングされ得る。いくつかの例では、逆変換モジュール148は、逆変換モジュール148が、復号されている現在ブロックの変換係数に2つ以上の逆変換を適用する、カスケード逆変換を適用し得る。
[0107]ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測ユニット144は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオフレームがインターコード化(すなわち、B、PまたはGPB)スライスとしてコーディングされるとき、動き補償ユニット142は、エントロピー復号ユニット140から受信された動きベクトルと他のシンタックス要素とに基づいて、現在ビデオスライスのビデオブロックのための予測ブロックを生成する。動き補償ユニット142は、動きベクトルと他のシンタックス要素とをパースすることによって現在ビデオスライスのビデオブロックのための予測情報を決定し、その予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。たとえば、動き補償ユニット142は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスの各インター符号化ビデオブロックのための動きベクトルと、スライスの各インターコード化ビデオブロックのためのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、受信されたシンタックス要素のいくつかを使用し得る。
[0108]動き補償ユニット142はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット142は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。この場合、動き補償ユニット142は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ブロックを生成し得る。
[0109]さらに、動き補償ユニット142およびイントラ予測モジュール144は、HEVCの例では、(たとえば、4分木によって与えられる)シンタックス情報の一部を使用して、符号化ビデオシーケンスの(1つまたは複数の)フレームを符号化するために使用されたLCUのサイズ、ならびにどのようにLCUがタイルに区分されたかを決定し得る。動き補償ユニット142およびイントラ予測モジュール144はまた、シンタックス情報を使用して、符号化ビデオシーケンスのフレームの各CUがどのように分割されるか(および、同様に、サブCUがどのように分割されるか)を記述する分割情報を決定し得る。シンタックス情報はまた、各分割がどのように符号化されるかを示すモード(たとえば、イントラまたはインター予測、およびイントラ予測の場合はイントラ予測符号化モード)と、各インター符号化PUについての1つまたは複数の参照フレーム(および/またはそれらの参照フレームの識別子を含んでいる参照リスト)と、符号化ビデオシーケンスを復号するための他の情報とを含み得る。
[0110]現在ビデオブロックのための予測ブロックの生成後に、ビデオデコーダ34は、逆変換ユニット148からの残差ブロックを対応する予測ブロックと加算することによって復号ビデオブロックを形成する。加算器150は、この加算演算を実行する1つまたは複数の構成要素を表す。所与のフレームまたはピクチャ中の復号されたビデオブロックは、次いで、その後の復号演算のために使用される参照ピクチャを記憶する参照ピクチャメモリ152に記憶される。復号ピクチャバッファ152はまた、図1のディスプレイデバイス36などのディスプレイデバイス上での後の表示のために、復号ビデオを記憶する。
[0111]ビデオデコーダ34が複数の並列処理コアを備える例では、図7に示すビデオデコーダ34の構成要素の少なくとも一部または全部が、各処理コアについて繰り返されるか、または異なる処理コアによって共有され得る。たとえば、エントロピー復号ユニット140と、動き補償ユニット142と、イントラ予測モジュール144と、逆量子化ユニット146と、逆変換ユニット148と、復号ピクチャバッファ152と、加算器150とのいずれかが、各処理コアについて繰り返されるか、または処理コアによって共有され得る。さらに、復号ユニット140と、動き補償ユニット142と、イントラ予測モジュール144と、逆量子化ユニット146と、逆変換ユニット148と、復号ピクチャバッファ152と、加算器150との各々に本明細書で関連する様々な機能が、異なるグループに割り当てられたタイルに関連するビデオデータについて並列に実行され得る。並列処理は、実質的に同じ時間にそれぞれの処理コアによって異なるグループに割り当てられたタイルに関連するビデオデータの少なくともいくつかの部分をコーディングすることを含み得る。並列処理のために、処理コアは、同じ時間にピクチャのビデオデータをコーディングすることを開始または終了し得るが、必ずしもそうするとは限らない。ただし、並列処理の少なくとも一部分中に、コアは同時にコーディングしている。
[0112]図8は、本開示による、タイルをグループ化することを含む例示的な方法を示すフローチャートである。図8の例示的な方法は、ソースデバイス12および宛先デバイス14によって実行されるものとして示されている。ただし、ソースデバイス12および宛先デバイス14、より詳細には、本明細書で説明するこれらのデバイスの例示的な構成要素による様々な機能は、本明細書で説明する任意の他のデバイス、モジュールまたはユニットによって実行され得る。
[0113]例示的な方法によれば、ソースデバイス12(たとえば、ビデオエンコーダ20、より詳細には、パーティションユニット118)は、ピクチャをタイルに区分する(160)。たとえば、パーティションユニット118は、ピクチャ内に1つまたは複数の垂直および/または水平タイル境界を定義することによってピクチャをタイルに区分し得る。得られたタイルは矩形であり、整数個のLCUを含み得る。
[0114]パーティションユニット118はまた、ピクチャを、NALユニットとの1対1の対応を有するスライスに区分し得る。タイルのサイズに応じて、各タイルが複数のスライス(またはNALユニット)を含むか、あるいは複数のタイルが1つのスライス(またはNALユニット)中に含まれ得る。ソースデバイス12(たとえば、ビデオエンコーダ20)は、次いで、タイルとスライスとへのピクチャの区分に従ってビデオデータを符号化する(162)。たとえば、ソースデバイス12(たとえば、ビデオエンコーダ20)は、いくつかの例では、タイル境界を越えるピクチャ内予測を可能にしないことがある。
[0115]いくつかの例では、ソースデバイス12は、たとえば、タイルグループへのタイルの割当てに基づいて、タイル境界を越える制限されたピクチャ内予測を可能にし得る。たとえば、モード選択ユニット110が、いくつかの例では、タイルグループによってカバーされない領域からタイルグループによってカバーされる領域までのピクチャ内予測を可能にしながら、タイルグループによってカバーされる領域からタイルグループによってカバーされない領域までのピクチャ内予測を可能にしないことがある。他の例では、モード選択ユニット110は、タイルグループによってカバーされない領域からタイルグループによってカバーされる領域までのピクチャ内予測を可能にしなくしながら、タイルグループによってカバーされる領域からタイルグループによってカバーされない領域までのピクチャ内予測を可能にすることがある。
[0116]ソースデバイス12(たとえば、カプセル化ユニット22)は、タイルをグループ化し、たとえば、タイルの各々を複数のタイルグループのうちの1つに割り当てる(164)。ソースデバイス12(たとえば、カプセル化ユニット22)は、次いで、タイルのグループ化に従って符号化ビデオデータとシンタックス要素とをビットストリーム中に配置する(166)。ビットストリーム中のシンタックス要素は、ピクチャがどのようにタイルに区分されたかを示すシンタックス、ならびにタイルがどのようにグループに割り当てられたかを示すシンタックスを含み得る。これらの目的のために使用され得る例示的なシンタックス要素について以下でより詳細に説明する。ソースデバイス12は、ビデオデータに関連するタイルがどのタイルグループに割り当てられたかに基づいてビデオデータを異なるパケット中に配置することによって、またはタイルグループに基づく順序でビデオデータをビットストリーム中に配置することによって、タイルのグループ化に従って符号化ビデオデータをビットストリーム中に配置し得る。
[0117]いくつかの例では、ソースデバイス12は、1つのタイルグループに割り当てられたタイルに関連するビデオデータを共通の1つまたは複数のスライスまたはNALユニット中に配置し、別のタイルグループに割り当てられたタイルに関連するビデオデータを共通の1つまたは複数の他のスライスまたはNALユニット中に配置し得る。同様に、ソースデバイス12は、1つのタイルグループに割り当てられたタイルに関連するビデオデータを共通の1つまたは複数のパケット中に配置し、別のタイルグループに割り当てられたタイルに関連するビデオデータを共通の1つまたは複数の他のパケット中に配置し得る。いくつかの例では、可能な場合、スライス、NALユニット、またはパケットの許容サイズに対するタイルグループ中のタイルのサイズを仮定すれば、1つのタイルグループに割り当てられたタイルに関連するビデオデータを単一のスライス、NALユニット、またはパケット中に配置することが好ましくなり得る。
[0118]異なるタイルグループに割り当てられたタイルに関連するビデオデータを、異なるスライス、NALユニット、またはパケットにそのように分離することは、共通のグループに割り当てられたタイルに関連するビデオデータをビットストリーム中にラスタ走査順序で配置するのではなく、ビデオデータをビットストリーム中に連続的に配置することを可能にし得る。そのように分離することはまた、異なるグループに割り当てられたタイルに関連するビデオデータをビットストリーム中にタイルグループに基づく順序で順序付けることを可能にし得、それにより、ビデオデコーダによる単独で復号可能なサブピクチャまたはROIの選択的復号が可能になり得る。そのように分離することはまた、本明細書で説明するように、異なるタイルグループのためのビデオデータの並列処理、または誤り回復を可能にし得る。さらに、共通のタイルグループに割り当てられたタイルに関連するビデオデータを共通のNALユニットまたはスライス内に配置することは、共通のタイルグループのタイルがラスタ走査順序で隣接しないときでも、タイル境界を越える、たとえば、タイルグループ内のタイル境界を越えるが、タイルグループ間ではない、制限されたピクチャ内予測を可能にし得る。
[0119]パケット、たとえば、RTPパケットは、必ずしもスライスまたはNALユニットに対応するとは限らず、たとえば、複数のパケットが各NALユニットについて必要とされるか、または複数のNALユニットが単一のパケット中に含まれ得る。ただし、いくつかの例では、共通のタイルグループに割り当てられたタイルに関連するビデオデータは、単一の共通のNALユニット(スライス)中に配置され得、その場合、その単一の共通のNALユニット(スライス)は、単一の共通のパケット中に含まれるか、または複数のパケットに区分され得る。
[0120]宛先デバイス14(たとえば、カプセル化解除ユニット32)はビットストリームを受信する(168)。いくつかの例では、宛先デバイス14によるビットストリームの受信は、互いに通信しているソースデバイス12と宛先デバイス14を通して行われる。様々な例では、宛先デバイス14は、上記で説明したように、たとえば、サーバ37または媒体36を介した生成のしばらく後に、ソースデバイスによって生成されたビットストリームを受信し得る。
[0121]ビットストリームの受信後に、宛先デバイス14(たとえば、カプセル化解除ユニット32)は、ピクチャのタイルがどのようにグループ化されたかを示すビットストリーム中のシンタックス要素に基づいてタイルのグループ化を決定する(170)。この目的のための例示的なシンタックス要素について以下でより詳細に説明する。
[0122]宛先デバイス14(たとえば、カプセル化解除ユニット32)は、タイルのグループ化を示すシンタックス要素に基づいてビデオデコーダ34に符号化ビデオデータをダイレクトする(172)。たとえば、ビデオデコーダ34が複数の並列処理コアを備える例では、カプセル化解除ユニット32は、異なるタイルグループに関連する符号化ビデオデータを、並列処理コアの異なる各々に与え得る。別の例として、カプセル化解除ユニット32は、ROIをカバーするタイルグループに関連する符号化ビデオデータをビデオデコーダ34に与え、ROIをカバーしない1つまたは複数のタイルグループに関連するビデオデータを廃棄し得る(あるいは場合によってはビデオデコーダに差分的に与え得る)。宛先デバイス14(たとえば、ビデオデコーダ34)は、タイルへのピクチャの区分に従ってビデオデータを復号する(174)。たとえば、宛先デバイス14(たとえば、ビデオデコーダ34)は、タイル境界を越えるイントラ予測が可能にされたか、タイルグループ内のみのタイル境界を越えるイントラ予測が可能にされたか、タイルグループの外部からタイルグループの内部までのイントラ予測が可能にされたか、またはタイルグループの内部からタイルグループの外部までのイントラ予測が可能にされたかに従って、ビデオデータを復号し得る。別の例として、宛先デバイス14(たとえば、ビデオデコーダ34)は、タイルのグループ化によって確定された順序でビデオデータを復号し得る。一例では、復号順序は、最も小さいタイルグループIDをもつタイルグループから最も大きいタイルグループIDをもつタイルグループまでであり、別の例では、復号順序は、最も大きいタイルグループIDをもつタイルグループから最も小さいタイルグループIDをもつタイルグループまでである。タイルグループIDは、以下でさらに詳細に説明する例示的なシンタックス要素である。いくつかの例では、タイルグループの復号順序は、たとえば、カプセル化ユニット22によって、コード化ビデオビットストリーム中で明示的にシグナリングされる。
[0123]次に、本明細書で説明するタイルグループ化技法のためのシンタックス、セマンティクスおよびコーディングの例を与える(削除されておらず、セマンティクスが与えられていないシンタックス要素について、それらのセマンティクスは、JCTVC−F335において提示された関連するシンタックスおよびセマンティクスと同じまたは同様であり得る)。いくつかの例では、ピクチャ中の各タイルはタイルIDに関連付けられ、タイルIDは、(左上タイルのための)0から開始するタイルラスタ走査順序でピクチャ中のすべてのタイルのリストへのインデックスに等しい。タイルは、0から開始する符号なし整数タイルグループID値によって識別される、1つまたは複数のタイルグループに割り当てられる。いくつかの例では、タイルは、たとえば、最も小さいタイルグループID値から最も大きいタイルグループID値までの、タイルグループID値に従う順序で復号される。
[0124]タイルがどのようにグループ化されるかを示すためのシンタックスを含む、シーケンスパラメータセット(SPS:sequence parameter set)およびピクチャパラメータセット(PPS:picture parameter set)中に含まれ得るシンタックス情報の一例は以下のようになる。
Figure 2014531178
Figure 2014531178
Figure 2014531178
Figure 2014531178
[0125]シンタックス要素tile_group_typeは、タイルグループへのタイルのマッピングがどのようにコーディングされるかを指定する。tile_group_typeの値は、両端値を含む0〜6の範囲内にあり得る。
[0126]0に等しいtile_group_typeは、すべてのタイルが、タイルグループ識別子TileGroupIdが0に等しい1つのタイルグループに属することを指定する。変数NumTileGroupsによって表されるタイルグループの数は1に等しいものとして導出される。
[0127]1に等しいtile_group_typeは、タイルの各列が1つのタイルグループに属し、タイルグループ識別子TileGroupIdが、タイルの最左列では0に等しく、左から右にタイルの列ごとに1だけ増加することを指定する。2に等しいtile_group_typeは、タイルの各行が1つのタイルグループに属し、タイルグループ識別子TileGroupIdが、タイルの最上行では0に等しく、上から下にタイルの行ごとに1だけ増加することを指定する。1に等しいtile_group_typeと2に等しいtile_group_typeの両方のタイルについて、変数NumTileGroupsによって表されるタイルグループの数はnum_tile_groups_minus2+2に等しいものとして導出される。
[0128]3に等しいtile_group_typeは、1つまたは複数の「フォアグラウンド(foreground)」タイルグループと、1つまたは複数の「レフトオーバー(leftover)」タイルグループとを指定する。1つまたは複数の「フォアグラウンド」タイルグループは、上記で説明したように、独立してコーディング可能なサブピクチャ、またはROIに対応し得る。変数NumTileGroupsによって表されるタイルグループの数はnum_tile_groups_minus2+2に等しいものとして導出される。
[0129]4または5に等しいtile_group_type値は、コンパクトな方法でコーディングされる、各タイルグループへのタイルの明示的割当てを指定する。変数NumTileGroupsによって表されるタイルグループの数はnum_tile_groups_minus2+2に等しいものとして導出される。
[0130]6に等しいtile_group_type値は、2つのタイルグループへのタイルのチェッカーボード状の割当てを指定する。変数NumTileGroupsによって表されるタイルグループの数は2に等しいものとして導出される。左上タイルはタイルグループ0に割り当てられる。タイルグループ0の任意のタイルについて、左側、右側、上側または下側への隣接タイルは、存在する場合、タイルグループ1に割り当てられる。タイルグループ1の任意のタイルについて、左側、右側、上側または下側への隣接タイルは、存在する場合、タイルグループ0に割り当てられる。
[0131]num_tiles_groups_minus2+2は、ピクチャのタイルグループの数を指定する。このシンタックス要素は、tile_group_typeが、両端値を含む1〜5の範囲内にあるときのみ存在する。このシンタックス要素の値は、両端値を含む0〜16の範囲内になる。
[0132]top_left[i]およびbottom_right[i]はそれぞれ矩形の左上隅および右下隅を指定する。top_left[i]およびbottom_right[i]はタイルラスタ走査順序でのピクチャ中のタイル位置である。各矩形iについて、以下の制約のすべてにシンタックス要素top_left[i]およびbottom_right[i]の値が従うことになる。
・top_left[i]がbottom_right[i]以下になり、bottom_right[i]が、(num_tile_columns_minus1+1)*(num_tile_rows_minus1+1)に等しいNumTilesよりも小さくなる。
・(top_left[i]%num_tile_columns_minus1+1)が(bottom_right[i]%num_tile_columns_minus1+1)の値以下になる。
[0133]矩形は重複し得る。タイルグループ0は、top_left[0]とbottom_right[0]とによって指定された矩形内にあるタイルを含んでいる。0よりも大きくNumTileGroups−1よりも小さいタイルグループIDを有するタイルグループは、より小さいタイルグループIDを有するタイルグループのために指定された矩形内にない、そのタイルグループの指定された矩形内にあるタイルを含んでいる。タイルグループIDがNumTileGroups−1に等しいタイルグループは、他のタイルグループ中にないタイルを含んでいる。
[0134]tile_group_id[i]はタイルグループを識別する。tile_group_id[i]シンタックス要素の長さはCeil(Log2(num_tile_groups_minus2+2))ビットである。tile_group_id[i]の値は、両端値を含む0〜num_tile_groups_minus2+2の範囲内になる。
[0135]run_length_minus1[i]は、タイルラスタ走査順序でi番目のタイルグループに割り当てられるべき連続するタイルの数を指定するために使用される。run_length_minus1[i]の値は、両端値を含む0〜NumTiles−1の範囲内になる。
[0136]各スライスの始端において、カプセル化解除ユニット32は、アクティブSPSおよびPPSによって与えられるシンタックスに基づいてタイル対タイルグループマップ(TileGroupMap)を作成し得る。TileGroupMapは、タイルラスタ走査順序でインデックス付けされた、1つのタイルのタイルグループID値にそれぞれ対応するNumTiles値を備え得る。TileGroupMapは、ピクチャのすべてのスライスについて同じである。
[0137]タイル対タイルグループマップ(TileGroupMap)を導出するための、エンコーダ20またはデコーダ34内の動作を表す例示的な擬似コードは以下のようになる。
Figure 2014531178
[0138]現在のタイルのタイルID(currTileId)に基づいて次のタイルのタイルID(NextTileId)を決定するための例示的なプロセスの擬似コードは以下のようになる。
Figure 2014531178
[0139]累積的タイル幅および高さを決定するための例示的なプロセスの擬似コードは以下のようになる。
Figure 2014531178
[0140]現在のLCUのアドレス(currLCUAddr)と、現在のLCUが属するタイルのタイルID(TileId)とに基づいて、次のLCUのアドレス(nextLCUAddr)と、次のLCUが属するタイルのタイルID(updateTileId)とを決定するためのエンコーダ20またはデコーダ34中の例示的なプロセッサのための擬似コードは以下のようになる。
Figure 2014531178
[0141]上記の例では、グループIDを示す情報はSPSとPPSの両方においてシグナリングされる。他の例では、そのような情報は、SPSまたはPPSのうちの1つのみにおいて、あるいは適応パラメータセット(APS:adaptation parameter set)またはスライスヘッダ内でシグナリングされる。APSの概念は、http://phenix.int-evry.fr/jct/doc_end_user/documents/6_Torino/wg11/JCTVC-F747-v4.zipから入手可能である、JCTVC−F747に記載されている。さらに、いくつかの例では、動的グループ化スタイルがSPS、PPSまたはAPS中でシグナリングされる。動的グループ化スタイルは、ピクチャにわたって変化しているタイルのグループ化を指し得る。たとえば、タイルの数は、ピクチャごとに2に等しいままであり得るが、タイルグループによってカバーされるLCUの数は、出力順序においてあるピクチャから次のピクチャまで増加し得る。
[0142]1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[0143]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu−rayディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれるべきである。
[0144]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明した技法の実装に好適な他の構造のいずれかを指し得る。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用ハードウェアおよび/またはソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
[0145]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0146]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
[0146]様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1] 複数のタイルに区分されるピクチャを備えるビデオデータをコーディングする方法であって、
ビットストリーム中で前記ビデオデータをコーディングすることと、
前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることと、
を備える、方法。
[2] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記選択されたタイルグループIDは、前記タイルグループのうちのどれに前記タイルが割り当てられたかを示す、[1]に記載の方法。
[3] 前記複数のタイルグループのうちの第1のタイルグループに割り当てられた前記タイルは、前記複数のタイルグループのうちの第2のタイルグループに割り当てられた前記タイルと前記ピクチャ内でインターリーブされる、[1]に記載の方法。
[4] 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、[1]に記載の方法。
[5] 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、前記ビデオデータを復号することは、
タイルグループの前記サブセットに関連しない前記ビデオデータの部分の不配信を要求すること、または
タイルグループの前記サブセットに関連しない前記ビデオデータの前記部分を廃棄すること
のうちの少なくとも1つを備える、[4]に記載の方法。
[6] 前記複数のタイルグループは第1のタイルグループと第2のタイルグループとを備え、前記第1のタイルグループと前記第2のタイルグループとからの前記タイルは、チェッカーボードパターンを形成するために前記ピクチャ内で交互に配置される、[1]に記載の方法。
[7] ビデオコーダの第1の並列処理コアを用いて前記タイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分をコーディングすることと、
前記ビデオコーダの第2の並列処理コアを用いて前記タイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分をコーディングすることと、
をさらに備える、[1]に記載の方法。
[8] 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、前記ビデオデータを復号することは、前記タイルグループのうちの少なくとも1つの他のタイルグループに関連するビデオデータに基づいて前記タイルグループのうちの1つに関連する紛失ビデオデータを再構成することを備える、[1]に記載の方法。
[9] 前記タイルグループのうちの異なるタイルグループに関連するコーディングされたビデオデータは、前記ビットストリーム内の異なるパケット内に含まれる、[1]に記載の方法。
[10] 前記タイルグループに従って前記ビットストリーム内で前記ビデオデータを順序付けることをさらに備える、[1]に記載の方法。
[11] 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、前記ビデオデータを復号することは、前記タイルグループに基づく順序で前記ビデオデータを復号することを備える、[1]に記載の方法。
[12] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
前記タイルグループに基づく順序で前記ビデオデータを復号することは、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを復号することを備える、[11]に記載の方法。
[13] 共通のタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にすることと、
異なるタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にしないことと、
をさらに備える、[1]に記載の方法。
[14] 前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることは、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、または適応パラメータセット(APS)のうちの少なくとも1つにおいて前記情報をコーディングすることを備える、[1]に記載の方法。
[15] 前記ピクチャは複数のスライスにさらに区分され、前記スライスの境界は前記タイルの境界とは異なる、[1]に記載の方法。
[16] 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、
前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることは、前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号することを備え、
前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
前記ビデオデータを復号することは、異なるタイルグループを互いに並列に復号するために、ビデオデコーダの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトすることを備える、[1]に記載の方法。
[17] 前記タイルグループの各々はそれぞれの1つまたは複数のNALユニットに関連付けられ、前記複数のタイルグループの各々のタイルのビデオデータは前記それぞれの1つまたは複数のNALユニット中に含まれる、[1]に記載の方法。
[18] 複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビットストリーム中で前記ビデオデータをコーディングすることと、
前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることと
を行うように構成された、デバイス。
[19] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記タイルの各々についての前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示す、[18]に記載のデバイス。
[20] 前記複数のタイルグループのうちの第1のタイルグループに割り当てられた前記タイルは、前記複数のタイルグループのうちの第2のタイルグループに割り当てられた前記タイルと前記ピクチャ内でインターリーブされる、[18]に記載のデバイス。
[21] 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、[18]に記載のデバイス。
[22] 前記デバイスは、前記ビデオデータを復号するように構成されたビデオデコーダを備え、
タイルグループの前記サブセットに関連しない前記ビデオデータの部分の不配信を要求すること、または
タイルグループの前記サブセットに関連しない前記ビデオデータの前記部分を廃棄すること
を行うようにさらに構成された、[21]に記載のデバイス。
[23] 前記複数のタイルグループは第1のタイルグループと第2のタイルグループとを備え、前記第1のタイルグループと前記第2のタイルグループとからの前記タイルは、チェッカーボードパターンを形成するために前記ピクチャ内で交互に配置される、[18]に記載のデバイス。
[24] 前記ビデオデータを復号するように構成された第1の並列処理コアと第2の並列処理コアとを備えるビデオデコーダと、
カプセル化解除ユニットと、
をさらに備え、前記カプセル化解除ユニットは、
前記複数のタイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分を復号するために、前記第1の並列処理コアに前記ビデオデータの前記第1の部分をダイレクトすることと、
前記複数のタイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分を復号するために、前記第2の並列処理コアに前記ビデオデータの前記第2の部分をダイレクトすることと、
を行うように構成された、[18]に記載のデバイス。
[25] 前記複数のタイルグループのうちの少なくとも1つの他のタイルグループに関連するビデオデータに基づいて前記複数のタイルグループのうちの1つに関連する紛失ビデオデータを再構成するように構成されたビデオデコーダをさらに備える、[18]に記載のデバイス。
[26] 前記タイルグループのうちの異なるタイルグループに関連するビデオデータを前記ビットストリーム内の異なるパケット内に配置するカプセル化ユニットをさらに備える、[18]に記載のデバイス。
[27] 前記タイルグループに従って前記ビットストリーム内で前記ビデオデータを順序付けるカプセル化ユニットをさらに備える、[18]に記載のデバイス。
[28] ビデオデコーダと、
前記タイルグループに基づく順序で前記ビデオデータを復号するために、前記ビデオデコーダに前記ビデオデータを与えるように構成されたカプセル化解除ユニットと、
をさらに備える、[18]に記載のデバイス。
[29] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
前記カプセル化解除ユニットは、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを与えるように構成された、[28]に記載のデバイス。
[30] 共通のタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にすることと、
異なるタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にしないことと、
を行うように構成されたビデオコーダをさらに備える、[18]に記載のデバイス。
[31] 前記デバイスは、前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す前記情報を、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、または適応パラメータセット(APS)のうちの少なくとも1つにおいてコーディングするように構成された、[18]に記載のデバイス。
[32] 前記ピクチャは複数のスライスにさらに区分され、前記スライスの境界は前記タイルの境界とは異なる、[18]に記載のデバイス。
[33] 前記デバイスは、
集積回路と、
マイクロプロセッサと、
ワイヤレス通信デバイスと、
のうちの少なくとも1つを備える、[18]に記載のデバイス。
[34] 前記ビデオデータを復号するように構成された複数の並列処理コアを備えるビデオデコーダと、
前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号するように構成されたカプセル化解除ユニットと、
をさらに備え、
前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
前記カプセル化解除ユニットは、異なるタイルグループを互いに並列に復号するために、前記ビデオデコーダの前記複数の並列処理コアのうちの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトする、
[18]に記載のデバイス。
[35] 前記タイルグループの各々はそれぞれの1つまたは複数のNALユニットに関連付けられ、前記複数のタイルグループの各々のタイルのビデオデータは前記それぞれの1つまたは複数のNALユニット中に含まれる、[18]に記載のデバイス。
[36] 複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスであって、
ビットストリーム中で前記ビデオデータをコーディングするための手段と、
前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングするための手段と、
を備える、デバイス。
[37] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示す、[36]に記載のデバイス。
[38] 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、[36]に記載のデバイス。
[39] 前記タイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分と、前記タイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分との並列コーディングのための手段をさらに備える、[36]に記載のデバイス。
[40] 前記複数のタイルグループのうちの異なるタイルグループに関連するコーディングされたビデオデータは、前記ビットストリーム内の異なるパケット内に含まれる、[36]に記載のデバイス。
[41] 前記タイルグループに基づく順序で前記ビデオデータを復号するための手段をさらに備える、[36]に記載のデバイス。
[42] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
前記タイルグループに基づく順序で前記ビデオデータを復号するための前記手段は、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを復号するための手段を備える、
[41]に記載のデバイス。
[43] 前記ビデオデータをコーディングするための前記手段は、前記ビデオデータを復号するための手段を備え、
前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングするための前記手段は、前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号するための手段を備え、
前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
前記ビデオデータを復号するための前記手段は、異なるタイルグループを互いに並列に復号するために、ビデオコーダの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトするための手段を備える、
[36]に記載のデバイス。
[44] 実行されたとき、複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスのプロセッサに、
ビットストリーム中で前記ビデオデータをコーディングすることと、
前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることと、
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[45] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示す、[44]に記載のコンピュータ可読記憶媒体。
[46] 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、[44]に記載のコンピュータ可読記憶媒体。
[47] 前記命令は、前記タイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分を、前記タイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分と並列にコーディングすることを前記プロセッサに行わせる、[44]に記載のコンピュータ可読記憶媒体。
[48] 前記複数のタイルグループのうちの異なるタイルグループに関連するコーディングされたビデオデータは、前記ビットストリーム内の異なるパケット内に含まれる、[44]に記載のコンピュータ可読記憶媒体。
[49] 前記命令は、前記タイルグループに基づく順序で前記ビデオデータを復号することを前記プロセッサに行わせる、[44]に記載のコンピュータ可読記憶媒体。
[50] 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
前記タイルグループに基づく順序で前記ビデオデータを復号することを前記デバイスに行わせる前記命令は、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを復号することを前記デバイスに行わせる命令を備える、
[49]に記載のコンピュータ可読記憶媒体。
[51] 前記ビデオデータをコーディングすることを前記プロセッサに行わせる前記命令は、前記ビデオデータを復号することを前記プロセッサに行わせる命令を備え、
前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることを前記プロセッサに行わせる前記命令は、前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号することを前記プロセッサに行わせる命令を備え、
前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
前記ビデオデータを復号することを前記プロセッサに行わせる前記命令は、異なるタイルグループを互いに並列に復号するために、ビデオコーダの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトすることを前記プロセッサに行わせる命令を備える、
[44]に記載のコンピュータ可読記憶媒体。

Claims (51)

  1. 複数のタイルに区分されるピクチャを備えるビデオデータをコーディングする方法であって、
    ビットストリーム中で前記ビデオデータをコーディングすることと、
    前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることと、
    を備える、方法。
  2. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記選択されたタイルグループIDは、前記タイルグループのうちのどれに前記タイルが割り当てられたかを示す、請求項1に記載の方法。
  3. 前記複数のタイルグループのうちの第1のタイルグループに割り当てられた前記タイルは、前記複数のタイルグループのうちの第2のタイルグループに割り当てられた前記タイルと前記ピクチャ内でインターリーブされる、請求項1に記載の方法。
  4. 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、請求項1に記載の方法。
  5. 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、前記ビデオデータを復号することは、
    タイルグループの前記サブセットに関連しない前記ビデオデータの部分の不配信を要求すること、または
    タイルグループの前記サブセットに関連しない前記ビデオデータの前記部分を廃棄すること
    のうちの少なくとも1つを備える、請求項4に記載の方法。
  6. 前記複数のタイルグループは第1のタイルグループと第2のタイルグループとを備え、前記第1のタイルグループと前記第2のタイルグループとからの前記タイルは、チェッカーボードパターンを形成するために前記ピクチャ内で交互に配置される、請求項1に記載の方法。
  7. ビデオコーダの第1の並列処理コアを用いて前記タイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分をコーディングすることと、
    前記ビデオコーダの第2の並列処理コアを用いて前記タイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分をコーディングすることと、
    をさらに備える、請求項1に記載の方法。
  8. 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、前記ビデオデータを復号することは、前記タイルグループのうちの少なくとも1つの他のタイルグループに関連するビデオデータに基づいて前記タイルグループのうちの1つに関連する紛失ビデオデータを再構成することを備える、請求項1に記載の方法。
  9. 前記タイルグループのうちの異なるタイルグループに関連するコーディングされたビデオデータは、前記ビットストリーム内の異なるパケット内に含まれる、請求項1に記載の方法。
  10. 前記タイルグループに従って前記ビットストリーム内で前記ビデオデータを順序付けることをさらに備える、請求項1に記載の方法。
  11. 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、前記ビデオデータを復号することは、前記タイルグループに基づく順序で前記ビデオデータを復号することを備える、請求項1に記載の方法。
  12. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
    前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
    前記タイルグループに基づく順序で前記ビデオデータを復号することは、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを復号することを備える、
    請求項11に記載の方法。
  13. 共通のタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にすることと、
    異なるタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にしないことと、
    をさらに備える、請求項1に記載の方法。
  14. 前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることは、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、または適応パラメータセット(APS)のうちの少なくとも1つにおいて前記情報をコーディングすることを備える、請求項1に記載の方法。
  15. 前記ピクチャは複数のスライスにさらに区分され、前記スライスの境界は前記タイルの境界とは異なる、請求項1に記載の方法。
  16. 前記ビデオデータをコーディングすることは、前記ビデオデータを復号することを備え、
    前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることは、前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号することを備え、
    前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
    前記ビデオデータを復号することは、異なるタイルグループを互いに並列に復号するために、ビデオデコーダの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトすることを備える、
    請求項1に記載の方法。
  17. 前記タイルグループの各々はそれぞれの1つまたは複数のNALユニットに関連付けられ、前記複数のタイルグループの各々のタイルのビデオデータは前記それぞれの1つまたは複数のNALユニット中に含まれる、請求項1に記載の方法。
  18. 複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスであって、前記デバイスは、
    ビットストリーム中で前記ビデオデータをコーディングすることと、
    前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることと
    を行うように構成された、デバイス。
  19. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記タイルの各々についての前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示す、請求項18に記載のデバイス。
  20. 前記複数のタイルグループのうちの第1のタイルグループに割り当てられた前記タイルは、前記複数のタイルグループのうちの第2のタイルグループに割り当てられた前記タイルと前記ピクチャ内でインターリーブされる、請求項18に記載のデバイス。
  21. 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、請求項18に記載のデバイス。
  22. 前記デバイスは、前記ビデオデータを復号するように構成されたビデオデコーダを備え、
    タイルグループの前記サブセットに関連しない前記ビデオデータの部分の不配信を要求すること、または
    タイルグループの前記サブセットに関連しない前記ビデオデータの前記部分を廃棄すること
    を行うようにさらに構成された、請求項21に記載のデバイス。
  23. 前記複数のタイルグループは第1のタイルグループと第2のタイルグループとを備え、前記第1のタイルグループと前記第2のタイルグループとからの前記タイルは、チェッカーボードパターンを形成するために前記ピクチャ内で交互に配置される、請求項18に記載のデバイス。
  24. 前記ビデオデータを復号するように構成された第1の並列処理コアと第2の並列処理コアとを備えるビデオデコーダと、
    カプセル化解除ユニットと、
    をさらに備え、前記カプセル化解除ユニットは、
    前記複数のタイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分を復号するために、前記第1の並列処理コアに前記ビデオデータの前記第1の部分をダイレクトすることと、
    前記複数のタイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分を復号するために、前記第2の並列処理コアに前記ビデオデータの前記第2の部分をダイレクトすることと、
    を行うように構成された、請求項18に記載のデバイス。
  25. 前記複数のタイルグループのうちの少なくとも1つの他のタイルグループに関連するビデオデータに基づいて前記複数のタイルグループのうちの1つに関連する紛失ビデオデータを再構成するように構成されたビデオデコーダをさらに備える、請求項18に記載のデバイス。
  26. 前記タイルグループのうちの異なるタイルグループに関連するビデオデータを前記ビットストリーム内の異なるパケット内に配置するカプセル化ユニットをさらに備える、請求項18に記載のデバイス。
  27. 前記タイルグループに従って前記ビットストリーム内で前記ビデオデータを順序付けるカプセル化ユニットをさらに備える、請求項18に記載のデバイス。
  28. ビデオデコーダと、
    前記タイルグループに基づく順序で前記ビデオデータを復号するために、前記ビデオデコーダに前記ビデオデータを与えるように構成されたカプセル化解除ユニットと、
    をさらに備える、請求項18に記載のデバイス。
  29. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
    前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
    前記カプセル化解除ユニットは、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを与えるように構成された、
    請求項28に記載のデバイス。
  30. 共通のタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にすることと、
    異なるタイルグループ内のタイルのタイル境界を越えるピクチャ内予測を可能にしないことと、
    を行うように構成されたビデオコーダをさらに備える、請求項18に記載のデバイス。
  31. 前記デバイスは、前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す前記情報を、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、または適応パラメータセット(APS)のうちの少なくとも1つにおいてコーディングするように構成された、請求項18に記載のデバイス。
  32. 前記ピクチャは複数のスライスにさらに区分され、前記スライスの境界は前記タイルの境界とは異なる、請求項18に記載のデバイス。
  33. 前記デバイスは、
    集積回路と、
    マイクロプロセッサと、
    ワイヤレス通信デバイスと、
    のうちの少なくとも1つを備える、請求項18に記載のデバイス。
  34. 前記ビデオデータを復号するように構成された複数の並列処理コアを備えるビデオデコーダと、
    前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号するように構成されたカプセル化解除ユニットと、
    をさらに備え、
    前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
    前記カプセル化解除ユニットは、異なるタイルグループを互いに並列に復号するために、前記ビデオデコーダの前記複数の並列処理コアのうちの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトする、
    請求項18に記載のデバイス。
  35. 前記タイルグループの各々はそれぞれの1つまたは複数のNALユニットに関連付けられ、前記複数のタイルグループの各々のタイルのビデオデータは前記それぞれの1つまたは複数のNALユニット中に含まれる、請求項18に記載のデバイス。
  36. 複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスであって、
    ビットストリーム中で前記ビデオデータをコーディングするための手段と、
    前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングするための手段と、
    を備える、デバイス。
  37. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示す、請求項36に記載のデバイス。
  38. 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、請求項36に記載のデバイス。
  39. 前記タイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分と、前記タイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分との並列コーディングのための手段をさらに備える、請求項36に記載のデバイス。
  40. 前記複数のタイルグループのうちの異なるタイルグループに関連するコーディングされたビデオデータは、前記ビットストリーム内の異なるパケット内に含まれる、請求項36に記載のデバイス。
  41. 前記タイルグループに基づく順序で前記ビデオデータを復号するための手段をさらに備える、請求項36に記載のデバイス。
  42. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
    前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
    前記タイルグループに基づく順序で前記ビデオデータを復号するための前記手段は、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを復号するための手段を備える、
    請求項41に記載のデバイス。
  43. 前記ビデオデータをコーディングするための前記手段は、前記ビデオデータを復号するための手段を備え、
    前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングするための前記手段は、前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号するための手段を備え、
    前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
    前記ビデオデータを復号するための前記手段は、異なるタイルグループを互いに並列に復号するために、ビデオコーダの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトするための手段を備える、
    請求項36に記載のデバイス。
  44. 実行されたとき、複数のタイルに区分されるピクチャを備えるビデオデータをコーディングするためのデバイスのプロセッサに、
    ビットストリーム中で前記ビデオデータをコーディングすることと、
    前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることと、
    を行わせる命令を記憶したコンピュータ可読記憶媒体。
  45. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示す、請求項44に記載のコンピュータ可読記憶媒体。
  46. 前記複数のタイルグループのサブセットは、単独で復号可能なサブピクチャまたは関心領域(ROI)のうちの少なくとも1つを形成する、請求項44に記載のコンピュータ可読記憶媒体。
  47. 前記命令は、前記タイルグループのうちの第1のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第1の部分を、前記タイルグループのうちの第2のタイルグループに割り当てられたタイルに関連する前記ビデオデータの第2の部分と並列にコーディングすることを前記プロセッサに行わせる、請求項44に記載のコンピュータ可読記憶媒体。
  48. 前記複数のタイルグループのうちの異なるタイルグループに関連するコーディングされたビデオデータは、前記ビットストリーム内の異なるパケット内に含まれる、請求項44に記載のコンピュータ可読記憶媒体。
  49. 前記命令は、前記タイルグループに基づく順序で前記ビデオデータを復号することを前記プロセッサに行わせる、請求項44に記載のコンピュータ可読記憶媒体。
  50. 前記情報は、前記ピクチャの前記複数のタイルの各々について、前記タイルに関連する複数のタイルグループIDのうちの選択された1つを備え、
    前記選択されたタイルグループIDは、前記複数のタイルグループのうちのどれに前記タイルが割り当てられたかを示し、
    前記タイルグループに基づく順序で前記ビデオデータを復号することを前記デバイスに行わせる前記命令は、前記タイルのための前記タイルグループIDの数値に基づく順序で前記ビデオデータを復号することを前記デバイスに行わせる命令を備える、
    請求項49に記載のコンピュータ可読記憶媒体。
  51. 前記ビデオデータをコーディングすることを前記プロセッサに行わせる前記命令は、前記ビデオデータを復号することを前記プロセッサに行わせる命令を備え、
    前記複数のタイルの各々が割り当てられた複数のタイルグループのうちの1つを示す情報を前記ビットストリーム中でコーディングすることを前記プロセッサに行わせる前記命令は、前記複数のタイルの各々が割り当てられた前記複数のタイルグループのうちの1つを示す前記情報を前記ビットストリーム中で復号することを前記プロセッサに行わせる命令を備え、
    前記ビデオデータは、同じタイルグループ中のタイルのビデオデータが前記ビットストリーム中で連続的に提示されるように、前記タイルグループに従って前記ビットストリーム内で順序付けられ、前記複数のタイルグループのうちの1つ中のタイルのビデオデータは、前記複数のタイルグループのうちの別の1つ中のタイルのビデオデータの前に前記ビットストリーム中で提示され、
    前記ビデオデータを復号することを前記プロセッサに行わせる前記命令は、異なるタイルグループを互いに並列に復号するために、ビデオコーダの異なる並列処理コアに、前記複数のタイルグループのうちの異なるタイルグループのタイルの前記ビデオデータをダイレクトすることを前記プロセッサに行わせる命令を備える、
    請求項44に記載のコンピュータ可読記憶媒体。
JP2014538921A 2011-10-24 2012-10-24 ビデオコーディングのためのタイルのグループ化 Active JP6038942B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161550833P 2011-10-24 2011-10-24
US61/550,833 2011-10-24
US13/658,453 2012-10-23
US13/658,453 US9584819B2 (en) 2011-10-24 2012-10-23 Grouping of tiles for video coding
PCT/US2012/061663 WO2013063094A1 (en) 2011-10-24 2012-10-24 Grouping of tiles for video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016123779A Division JP6271646B2 (ja) 2011-10-24 2016-06-22 ビデオコーディングのためのタイルのグループ化

Publications (2)

Publication Number Publication Date
JP2014531178A true JP2014531178A (ja) 2014-11-20
JP6038942B2 JP6038942B2 (ja) 2016-12-07

Family

ID=48135973

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014538921A Active JP6038942B2 (ja) 2011-10-24 2012-10-24 ビデオコーディングのためのタイルのグループ化
JP2016123779A Active JP6271646B2 (ja) 2011-10-24 2016-06-22 ビデオコーディングのためのタイルのグループ化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016123779A Active JP6271646B2 (ja) 2011-10-24 2016-06-22 ビデオコーディングのためのタイルのグループ化

Country Status (7)

Country Link
US (1) US9584819B2 (ja)
EP (1) EP2772055B1 (ja)
JP (2) JP6038942B2 (ja)
KR (1) KR101710243B1 (ja)
CN (1) CN103975596B (ja)
IN (1) IN2014CN02701A (ja)
WO (1) WO2013063094A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021049277A1 (ja) * 2019-09-11 2021-03-18 キヤノン株式会社 画像符号化装置及び画像復号装置
JPWO2020116630A1 (ja) * 2018-12-07 2021-10-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 復号装置及び復号方法
US11943452B2 (en) 2016-07-14 2024-03-26 Koninklijke Kpn N.V. Systems and methods for video encoding and decoding
US12047571B2 (en) 2018-12-04 2024-07-23 Vid Scale, Inc. Tile group partitioning

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8767824B2 (en) 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
AU2012294053B2 (en) * 2011-08-11 2016-07-07 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
US9204148B1 (en) 2011-09-28 2015-12-01 Electronics And Telecommunications Research Institute Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
KR20130034566A (ko) * 2011-09-28 2013-04-05 한국전자통신연구원 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치
US9204171B1 (en) 2011-09-28 2015-12-01 Electronics And Telecommunications Research Institute Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
EP2775715A4 (en) * 2011-10-31 2015-09-23 Mitsubishi Electric Corp DEVICES AND METHODS FOR ENCODING AND DECODING MOVING IMAGES
US10349077B2 (en) * 2011-11-21 2019-07-09 Canon Kabushiki Kaisha Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and storage medium
CA2898147C (en) * 2012-01-30 2017-11-07 Samsung Electronics Co., Ltd. Method and apparatus for video encoding for each spatial sub-area, and method and apparatus for video decoding for each spatial sub-area
BR112014024270B1 (pt) 2012-04-06 2023-01-17 Sony Corporation Dispositivo e método de decodificação
TWI752680B (zh) 2012-04-13 2022-01-11 美商Ge影像壓縮有限公司 用以自資料串流重構圖像的解碼器及方法、用以將圖像編碼入資料串流的編碼器及方法、與相關電腦程式及機器可存取媒體
US10257522B2 (en) * 2012-06-25 2019-04-09 Sony Corporation Image decoding device, image decoding method, image encoding device, and image encoding method
KR102249484B1 (ko) * 2012-06-26 2021-05-12 엘지전자 주식회사 비디오 인코딩 방법, 비디오 디코딩 방법 및 이를 이용하는 장치
CN115442623B (zh) 2012-06-29 2024-08-23 Ge视频压缩有限责任公司 解码视频数据流的方法、存储介质、编码器、解码器
US9621905B2 (en) * 2012-06-29 2017-04-11 Qualcomm Incorporated Tiles and wavefront parallel processing
US9554133B2 (en) * 2012-09-18 2017-01-24 Vid Scale, Inc. Method and apparatus for region of interest video coding using tiles and tile groups
US20140092985A1 (en) * 2012-09-28 2014-04-03 Sharp Laboratories Of America, Inc. Content initialization for enhancement layer coding
US9788002B2 (en) * 2012-11-29 2017-10-10 Samsung Electronics Co., Ltd. Image processing apparatus and method
RU2608465C1 (ru) * 2013-01-04 2017-01-18 Самсунг Электроникс Ко., Лтд. Способ энтропийного кодирования сегмента слайса и устройство для него и способ энтропийного декодирования сегмента слайса и устройство для него
US9749627B2 (en) * 2013-04-08 2017-08-29 Microsoft Technology Licensing, Llc Control data for motion-constrained tile set
CN105144768B (zh) 2013-04-26 2019-05-21 英特尔Ip公司 频谱共享情境中的共享频谱重新分配
JP6120707B2 (ja) * 2013-07-08 2017-04-26 ルネサスエレクトロニクス株式会社 動画像符号化装置およびその動作方法
EP3008896B1 (en) 2013-07-15 2021-03-31 Sony Corporation Extensions of motion-constrained tile sets sei message for interactivity
KR102652871B1 (ko) 2013-07-15 2024-04-01 지이 비디오 컴프레션, 엘엘씨 네트워크 장치 및 오류 처리
US9628528B2 (en) * 2013-07-19 2017-04-18 Electronics And Telecommunications Research Institute Apparatus and method for providing content
EP3013064B1 (en) * 2013-07-19 2019-03-13 Sony Corporation Information processing device and method
US10419801B2 (en) * 2013-07-22 2019-09-17 Sony Corporation Information processing apparatus and method
GB2516826B (en) * 2013-07-23 2016-06-22 Canon Kk Method, device and computer program for encapsulating partitioned timed media data by creating tracks to be independently encapsulated in at least one media f
US10721530B2 (en) 2013-07-29 2020-07-21 Koninklijke Kpn N.V. Providing tile video streams to a client
US11425395B2 (en) 2013-08-20 2022-08-23 Google Llc Encoding and decoding using tiling
JP6209026B2 (ja) * 2013-08-30 2017-10-04 キヤノン株式会社 画像符号化装置及びその制御方法
CN109905748B (zh) * 2013-09-20 2022-05-10 松下电器(美国)知识产权公司 图像编码方法及装置、图像解码方法及装置
JP6268066B2 (ja) * 2013-09-20 2018-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置及び受信装置
GB2519746B (en) 2013-10-22 2016-12-14 Canon Kk Method, device and computer program for encapsulating scalable partitioned timed media data
CN104754362B (zh) * 2014-01-01 2021-11-02 上海天荷电子信息有限公司 使用精细划分块匹配的图像压缩方法
US9386275B2 (en) * 2014-01-06 2016-07-05 Intel IP Corporation Interactive video conferencing
US10404988B2 (en) * 2014-03-16 2019-09-03 Vid Scale, Inc. Method and apparatus for the signaling of lossless video coding
GB2524726B (en) * 2014-03-25 2018-05-23 Canon Kk Image data encapsulation with tile support
WO2015184069A1 (en) 2014-05-28 2015-12-03 Arris Enterprises, Inc. Acceleration of context adaptive binary arithmetic coding (cabac) in video codecs
US10827178B2 (en) 2014-05-28 2020-11-03 Arris Enterprises Llc Content aware scheduling in a HEVC decoder operating on a multi-core processor platform
US10038919B2 (en) * 2014-05-29 2018-07-31 Apple Inc. In loop chroma deblocking filter
FR3022063B1 (fr) * 2014-06-05 2018-04-27 Harmonic Inc. Systeme de codage de sequence video utilisant des zones de codage elargies
WO2015197815A1 (en) 2014-06-27 2015-12-30 Koninklijke Kpn N.V. Determining a region of interest on the basis of a hevc-tiled video stream
WO2015197818A1 (en) * 2014-06-27 2015-12-30 Koninklijke Kpn N.V. Hevc-tiled video streaming
MX2016015022A (es) 2014-08-07 2018-03-12 Sonic Ip Inc Sistemas y metodos para proteger corrientes de bits elementales que incorporan tejas codificadas independientemente.
GB2530751A (en) * 2014-09-30 2016-04-06 Sony Corp Video data encoding and decoding
US9516220B2 (en) 2014-10-02 2016-12-06 Intel Corporation Interactive video conferencing
US20160105678A1 (en) * 2014-10-13 2016-04-14 Microsoft Technology Licensing, Llc Video Parameter Techniques
GB2531993B (en) 2014-10-14 2018-04-25 Canon Kk Description of image composition with HEVC still image file format
US10021346B2 (en) 2014-12-05 2018-07-10 Intel IP Corporation Interactive video conferencing
US20170019679A1 (en) * 2015-07-15 2017-01-19 Mediatek Inc. Hybrid video decoding apparatus for performing hardware entropy decoding and subsequent software decoding and associated hybrid video decoding method
CN106713916B (zh) * 2015-07-24 2020-02-14 浙江大华技术股份有限公司 一种视频图像的存储和读取方法、装置以及系统
EP3338454A1 (en) 2015-08-20 2018-06-27 Koninklijke KPN N.V. Forming one or more tile streams on the basis of one or more video streams
WO2017060423A1 (en) 2015-10-08 2017-04-13 Koninklijke Kpn N.V. Enhancing a region of interest in video frames of a video stream
US10499065B2 (en) 2016-07-21 2019-12-03 Samsung Display Co. Ltd. System and method for sending video data over a wireless channel
EP3293981A1 (en) * 2016-09-08 2018-03-14 Koninklijke KPN N.V. Partial video decoding method, device and system
KR102531386B1 (ko) * 2016-10-04 2023-05-12 주식회사 비원영상기술연구소 영상 데이터 부호화/복호화 방법 및 장치
US10917564B2 (en) * 2016-10-12 2021-02-09 Qualcomm Incorporated Systems and methods of generating and processing files for partial decoding and most interested regions
KR20180040827A (ko) 2016-10-13 2018-04-23 디지털인사이트 주식회사 부호화 유닛의 그룹을 사용하는 비디오 코딩 방법 및 장치
KR20190060846A (ko) * 2016-12-14 2019-06-03 에스지 디제이아이 테크놀러지 코., 엘티디 비디오 비트 스트림 스위칭을 지원하는 시스템 및 방법
WO2018160034A1 (ko) * 2017-03-03 2018-09-07 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
KR102390413B1 (ko) * 2017-03-03 2022-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
US10771163B2 (en) * 2017-10-24 2020-09-08 Mediatek Inc. Apparatus and method for decoding ROI regions in image
GB2569107B (en) * 2017-11-29 2022-04-06 Displaylink Uk Ltd Managing display data
EP3721631A1 (en) * 2017-12-06 2020-10-14 V-Nova International Limited Method and apparatus for decoding a received set of encoded data
GB2569959B (en) * 2018-01-03 2022-12-21 Displaylink Uk Ltd Decoding image data at a display device
KR20230044333A (ko) * 2018-01-25 2023-04-03 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 효율적인 서브 픽처 추출
US11995448B1 (en) 2018-02-08 2024-05-28 Marvell Asia Pte Ltd Method and apparatus for performing machine learning operations in parallel on machine learning hardware
US10970080B2 (en) 2018-02-08 2021-04-06 Marvell Asia Pte, Ltd. Systems and methods for programmable hardware architecture for machine learning
US12112175B1 (en) * 2018-02-08 2024-10-08 Marvell Asia Pte Ltd Method and apparatus for performing machine learning operations in parallel on machine learning hardware
BR112020019816A8 (pt) * 2018-03-26 2023-02-07 Mediatek Inc Métodos e aparelhos para sinalização de particionamento de unidade de codificação de dados de vídeo
WO2019189890A1 (en) * 2018-03-30 2019-10-03 Sharp Kabushiki Kaisha Systems and methods for signaling tile structures for pictures of coded video
GB2572770B (en) * 2018-04-09 2022-11-02 Canon Kk Method and apparatus for encoding or decoding video data with frame portions
US10812828B2 (en) 2018-04-10 2020-10-20 At&T Intellectual Property I, L.P. System and method for segmenting immersive video
US11016801B1 (en) 2018-05-22 2021-05-25 Marvell Asia Pte, Ltd. Architecture to support color scheme-based synchronization for machine learning
US10997510B1 (en) 2018-05-22 2021-05-04 Marvell Asia Pte, Ltd. Architecture to support tanh and sigmoid operations for inference acceleration in machine learning
US10929778B1 (en) 2018-05-22 2021-02-23 Marvell Asia Pte, Ltd. Address interleaving for machine learning
US10929779B1 (en) * 2018-05-22 2021-02-23 Marvell Asia Pte, Ltd. Architecture to support synchronization between core and inference engine for machine learning
MX2020013864A (es) 2018-06-21 2021-03-25 Ericsson Telefon Ab L M Particiones de mosaicos con sub-mosaicos en codificacion de video.
CN112585970B (zh) 2018-06-21 2024-07-09 瑞典爱立信有限公司 灵活图块分区
WO2019243534A1 (en) 2018-06-21 2019-12-26 Telefonaktiebolaget Lm Ericsson (Publ) Tile shuffling for 360 degree video decoding
US11290728B2 (en) 2018-07-02 2022-03-29 Nokia Technologies Oy Method and apparatus for tile-relative addressing in video coding
US10841602B2 (en) * 2018-07-16 2020-11-17 Tencent America LLC Hierarchical tiles
US10743029B2 (en) * 2018-07-30 2020-08-11 Tencent America LLC Constraints on coding unit partition
TWI820195B (zh) 2018-08-28 2023-11-01 大陸商北京字節跳動網絡技術有限公司 分割方法的冗餘移除
CN112703736B (zh) * 2018-09-14 2022-11-25 华为技术有限公司 视频译码方法,视频译码设备以及非瞬时性计算机可读介质
KR20210058947A (ko) 2018-09-20 2021-05-24 샤프 가부시키가이샤 비디오 코딩에서 파라미터들을 시그널링하기 위한 시스템들 및 방법들
KR20210052566A (ko) * 2018-09-25 2021-05-10 디지털인사이트 주식회사 인터 모드 기반의 영상 부호화/복호화 방법 및 장치
CN112823525A (zh) * 2018-10-02 2021-05-18 瑞典爱立信有限公司 基于图块组id对图片进行编码和解码
JP6835177B2 (ja) * 2018-11-30 2021-02-24 株式会社Jvcケンウッド 画像復号化装置、画像復号化方法及び画像復号化プログラム
WO2020124016A1 (en) * 2018-12-14 2020-06-18 Futurewei Technologies, Inc. Arbitrary and wrap-around tile grouping
CN115665412A (zh) * 2018-12-17 2023-01-31 华为技术有限公司 视频译码中用于光栅扫描分块组和矩形分块组的分块组分配
US11140403B2 (en) * 2018-12-20 2021-10-05 Tencent America LLC Identifying tile from network abstraction unit header
WO2020130912A1 (en) * 2018-12-20 2020-06-25 Telefonaktiebolaget Lm Ericsson (Publ) Improved tile address signalling in video encoding and decoding
MX2021007874A (es) * 2018-12-27 2021-10-26 Huawei Tech Co Ltd Un codificador de video, un decodificador de video y métodos correspondientes.
US11477445B2 (en) * 2018-12-28 2022-10-18 Hfi Innovation Inc. Methods and apparatuses of video data coding with tile grouping
MX2021007926A (es) * 2018-12-28 2021-10-22 Huawei Tech Co Ltd Un codificador de video, un decodificador de video y metodos correspondientes.
JP7404373B2 (ja) * 2019-01-09 2023-12-25 ホアウェイ・テクノロジーズ・カンパニー・リミテッド ビデオエンコーダ、ビデオデコーダ、および対応する方法
US12113997B2 (en) * 2019-01-22 2024-10-08 Tencent America LLC Method for tile group identification
CN113366855A (zh) 2019-02-03 2021-09-07 北京字节跳动网络技术有限公司 基于条件的非对称四叉树分割
CN112470479B (zh) 2019-02-26 2024-07-30 苹果公司 视频信号编码/解码方法及存储介质
EP3935859A4 (en) 2019-03-06 2023-01-04 Sharp Kabushiki Kaisha SYSTEMS AND METHODS FOR REPORTING TILE GROUP INFORMATION IN VIDEO CODING
EP3939319B1 (en) 2019-03-11 2023-07-05 Telefonaktiebolaget LM Ericsson (publ) Video coding comprising rectangular tile group signaling
EP3861722A4 (en) * 2019-03-11 2022-07-06 Tencent America LLC ADAPTIVE FRAME SIZE SIGNALING IN A VIDEO BITSTREAM
KR20240142576A (ko) * 2019-03-11 2024-09-30 텐센트 아메리카 엘엘씨 타일 및 서브-픽처 파티셔닝
CN113906744A (zh) 2019-03-15 2022-01-07 北京达佳互联信息技术有限公司 视频编解码中无损编解码的信令
US11197009B2 (en) 2019-05-30 2021-12-07 Hulu, LLC Processing sub-partitions in parallel using reference pixels
US11202070B2 (en) * 2019-05-30 2021-12-14 Hulu, LLC Parallel bi-directional intra-coding of sub-partitions
US11523185B2 (en) 2019-06-19 2022-12-06 Koninklijke Kpn N.V. Rendering video stream in sub-area of visible display area
WO2020256522A1 (ko) * 2019-06-20 2020-12-24 한국전자통신연구원 영역 분할을 사용하는 영상 부호화 및 영상 복호화를 위한 방법 및 장치
WO2020256442A1 (ko) * 2019-06-20 2020-12-24 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
CN110446070A (zh) * 2019-07-16 2019-11-12 重庆爱奇艺智能科技有限公司 一种视频播放的方法和装置
KR20220042125A (ko) 2019-08-10 2022-04-04 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브픽처 디코딩에서의 버퍼 관리
US11284113B2 (en) * 2019-09-25 2022-03-22 Tencent America LLC Method for signaling subpicture identifier
EP4035387A4 (en) * 2019-09-27 2023-10-18 Nokia Technologies Oy FACTIONAL ARBITRARY TILE GROUPING
JP7322290B2 (ja) 2019-10-02 2023-08-07 北京字節跳動網絡技術有限公司 ビデオビットストリームにおけるサブピクチャシグナリングのための構文
JP7482220B2 (ja) * 2019-10-18 2024-05-13 北京字節跳動網絡技術有限公司 サブピクチャのパラメータセットシグナリングにおける構文制約
WO2021107662A1 (ko) * 2019-11-27 2021-06-03 엘지전자 주식회사 영상 디코딩 방법 및 그 장치
KR20220085819A (ko) * 2019-11-27 2022-06-22 엘지전자 주식회사 영상 디코딩 방법 및 그 장치
CN112307700B (zh) * 2019-12-17 2022-07-29 成都华微电子科技股份有限公司 可编程器件的位流并行生成方法及系统
KR20220100701A (ko) * 2019-12-23 2022-07-15 엘지전자 주식회사 영상 코딩 장치 및 방법
KR20220100048A (ko) * 2019-12-23 2022-07-14 엘지전자 주식회사 가상 경계 기반 영상 코딩 장치 및 방법
WO2021137295A1 (en) * 2019-12-30 2021-07-08 Sharp Kabushiki Kaisha Systems and methods for signaling subpicture information in video coding
KR20220141794A (ko) 2020-03-05 2022-10-20 엘지전자 주식회사 혼성 nal 유닛 타입에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
JP7415030B2 (ja) 2020-03-05 2024-01-16 エルジー エレクトロニクス インコーポレイティド 混成nalユニットタイプに基づく画像符号化/復号化方法及び装置、並びにビットストリームを伝送する方法
WO2021185311A1 (en) * 2020-03-20 2021-09-23 Mediatek Inc. Method and apparatus for signaling tile and slice partition information in image and video coding
US12022101B2 (en) 2020-03-31 2024-06-25 Lg Electronics Inc. Image encoding/decoding method and apparatus based on subpicture information aligned between layers, and recording medium storing bitstream
WO2021201616A1 (ko) * 2020-03-31 2021-10-07 엘지전자 주식회사 픽처 분할 정보 및 서브픽처 정보에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체
CN112995237B (zh) * 2021-05-21 2021-10-08 杭州博雅鸿图视频技术有限公司 一种用于处理视频数据流的方法、装置、设备及存储介质
CN116114245A (zh) 2021-09-02 2023-05-12 辉达公司 在视频编码过程中视频帧的并行处理
CN116097649A (zh) * 2021-09-06 2023-05-09 辉达公司 无滤波相依性的视频帧的并行编码
WO2023067242A1 (en) * 2021-10-21 2023-04-27 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167836A (ja) * 2003-12-04 2005-06-23 Nooza:Kk 画像の多重解像度表示システム、多重解像度表示方法、および多重解像度表示プログラム
US20100189181A1 (en) * 2007-09-14 2010-07-29 Huawei Technologies Co., Ltd. Method and device for video coding and decoding
US20110249731A1 (en) * 2010-04-09 2011-10-13 Jie Zhao Methods and Systems for Intra Prediction

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2938071T3 (en) * 2001-11-29 2018-01-22 Godo Kaisha Ip Bridge 1 METHOD OF REMOVING CODING PREVENTION
KR101255226B1 (ko) 2005-09-26 2013-04-16 한국과학기술원 스케일러블 비디오 코딩에서 다중 roi 설정, 복원을위한 장치 및 방법
JP4876122B2 (ja) * 2006-03-22 2012-02-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 精度スケーラビリティを可能にする符号化スキーム
TW200840368A (en) 2006-12-22 2008-10-01 Qualcomm Inc Techniques for content adaptive video frame slicing and non-uniform access unit coding
US8428125B2 (en) * 2006-12-22 2013-04-23 Qualcomm Incorporated Techniques for content adaptive video frame slicing and non-uniform access unit coding
US9313515B2 (en) 2007-05-16 2016-04-12 Thomson Licensing Methods and apparatus for the use of slice groups in encoding multi-view video coding (MVC) information
US8891615B2 (en) 2008-01-08 2014-11-18 Qualcomm Incorporated Quantization based on rate-distortion modeling for CABAC coders
US8542748B2 (en) 2008-03-28 2013-09-24 Sharp Laboratories Of America, Inc. Methods and systems for parallel video encoding and decoding
US8908763B2 (en) 2008-06-25 2014-12-09 Qualcomm Incorporated Fragmented reference in temporal compression for video coding
US8634456B2 (en) * 2008-10-03 2014-01-21 Qualcomm Incorporated Video coding with large macroblocks
EP2312854A1 (de) 2009-10-15 2011-04-20 Siemens Aktiengesellschaft Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder
KR101457894B1 (ko) 2009-10-28 2014-11-05 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
JP2011109390A (ja) 2009-11-17 2011-06-02 Jvc Kenwood Holdings Inc 画像符号化装置、画像符号化方法、画像復号装置、及び、画像復号方法
US8995527B2 (en) * 2010-02-19 2015-03-31 Qualcomm Incorporated Block type signalling in video coding
US8942282B2 (en) * 2010-04-12 2015-01-27 Qualcomm Incorporated Variable length coding of coded block pattern (CBP) in video compression
CA2799763A1 (en) 2010-07-13 2012-01-19 Research In Motion Limited Methods and devices for data compression using context-based coding order
EP3618431B1 (en) * 2010-07-21 2023-01-18 Telefonaktiebolaget LM Ericsson (publ) Picture coding and decoding
US8817882B2 (en) 2010-07-30 2014-08-26 Qualcomm Incorporated Coding blocks of data using a generalized form of golomb codes
US8344917B2 (en) 2010-09-30 2013-01-01 Sharp Laboratories Of America, Inc. Methods and systems for context initialization in video coding and decoding
US9313514B2 (en) 2010-10-01 2016-04-12 Sharp Kabushiki Kaisha Methods and systems for entropy coder initialization
US9813738B2 (en) * 2010-10-05 2017-11-07 Hfi Innovation Inc. Method and apparatus of adaptive loop filtering
US8654860B2 (en) * 2010-11-01 2014-02-18 Mediatek Inc. Apparatus and method for high efficiency video coding using flexible slice structure
US20120106622A1 (en) * 2010-11-03 2012-05-03 Mediatek Inc. Method and Apparatus of Slice Grouping for High Efficiency Video Coding
US9060174B2 (en) * 2010-12-28 2015-06-16 Fish Dive, Inc. Method and system for selectively breaking prediction in video coding
US9325999B2 (en) * 2011-03-10 2016-04-26 Sharp Kabushiki Kaisha Video decoder for slices
US20120236936A1 (en) * 2011-03-14 2012-09-20 Segall Christopher A Video coding based on edge determination
US9398307B2 (en) * 2011-07-11 2016-07-19 Sharp Kabushiki Kaisha Video decoder for tiles
US8767824B2 (en) * 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
US9344743B2 (en) * 2011-08-24 2016-05-17 Texas Instruments Incorporated Flexible region based sample adaptive offset (SAO) and adaptive loop filter (ALF)
FR2982447A1 (fr) * 2011-11-07 2013-05-10 France Telecom Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants
US9854259B2 (en) * 2012-07-09 2017-12-26 Qualcomm Incorporated Smoothing of difference reference picture
US9554133B2 (en) * 2012-09-18 2017-01-24 Vid Scale, Inc. Method and apparatus for region of interest video coding using tiles and tile groups
US9998727B2 (en) * 2012-09-19 2018-06-12 Qualcomm Incorporated Advanced inter-view residual prediction in multiview or 3-dimensional video coding
US9648330B2 (en) * 2013-07-15 2017-05-09 Qualcomm Incorporated Inter-color component residual prediction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167836A (ja) * 2003-12-04 2005-06-23 Nooza:Kk 画像の多重解像度表示システム、多重解像度表示方法、および多重解像度表示プログラム
US20100189181A1 (en) * 2007-09-14 2010-07-29 Huawei Technologies Co., Ltd. Method and device for video coding and decoding
US20110249731A1 (en) * 2010-04-09 2011-10-13 Jie Zhao Methods and Systems for Intra Prediction

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JPN6015015721; Arild Fuldseth, Michael Horowitz, Shilin Xu, Andrew Segall, Minhua Zhou: 'Tiles' Joint Collaborative Team on Video Coding(JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Mee JCTVC-F335, 20110701, P.1-P.15, JCTVC *
JPN6015015722; Arild Fuldseth, Michael Horowitz, Shilin Xu, Andrew Segall, Minhua Zhou: 'Tiles' Joint Collaborative Team on Video Coding(JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 5th Mee JCTVC-E408_r1, 20110311, P.1-P.14, JCTVC *
JPN6015015724; A.Fuldseth: 'Replacing slices with tiles for high level parallelism' Joint Collaborative Team on Video Coding(JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 4th Mee JCTVC-D227, 20110116, P.1-P.5, JCTVC *
JPN6015015725; Ye-Kui Wang,Ying Chen,Muhammed Coban,Marta Karczewicz: 'Tile groups' Joint Collaborative Team on Video Coding(JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 7th Mee JCTVC-G318, 20111109, P.1-P.9, JCTVC *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11943452B2 (en) 2016-07-14 2024-03-26 Koninklijke Kpn N.V. Systems and methods for video encoding and decoding
US12047571B2 (en) 2018-12-04 2024-07-23 Vid Scale, Inc. Tile group partitioning
JPWO2020116630A1 (ja) * 2018-12-07 2021-10-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 復号装置及び復号方法
US11812045B2 (en) 2018-12-07 2023-11-07 Panasonic Intellectual Property Corporation Of America Decoder and decoding method
WO2021049277A1 (ja) * 2019-09-11 2021-03-18 キヤノン株式会社 画像符号化装置及び画像復号装置

Also Published As

Publication number Publication date
CN103975596B (zh) 2017-06-09
WO2013063094A1 (en) 2013-05-02
IN2014CN02701A (ja) 2015-07-03
JP6271646B2 (ja) 2018-01-31
US9584819B2 (en) 2017-02-28
EP2772055B1 (en) 2021-07-28
EP2772055A1 (en) 2014-09-03
KR101710243B1 (ko) 2017-03-08
JP6038942B2 (ja) 2016-12-07
JP2016195416A (ja) 2016-11-17
CN103975596A (zh) 2014-08-06
KR20140085539A (ko) 2014-07-07
US20130101035A1 (en) 2013-04-25

Similar Documents

Publication Publication Date Title
JP6271646B2 (ja) ビデオコーディングのためのタイルのグループ化
US11700384B2 (en) Signaling picture size in video coding
US11778234B2 (en) Video intra prediction using hybrid recursive filters
JP5847970B2 (ja) ビデオコード化におけるフレーム分割
JP5922245B2 (ja) クロマ成分のための適応ループフィルタ処理
CN109076228B (zh) 滤波信息的发信号
US9699472B2 (en) Restriction of prediction units in B slices to uni-directional inter prediction
EP2904790B1 (en) Coded block flag (cbf) coding for 4:2:2 sample format in video coding
EP2868102B1 (en) Tiles and wavefront parallel processing
JP5882487B2 (ja) ピクチャ区分方式の統合的設計
AU2012273109B2 (en) Parallelization friendly merge candidates for video coding
WO2018067714A1 (en) Variable number of intra modes for video coding
JP6105048B2 (ja) ビデオコーディングのための変換係数のコーディングにおけるグループフラグ
JP2016201808A (ja) ビデオ・コーディングにおける非正方形変換ユニットおよび予測ユニット
JP2016524878A (ja) コンポーネント間フィルタ処理
US20220078445A1 (en) Chroma coding enhancement in cross-component correlation
JP2015531570A (ja) ビデオコーダの動作点のためのレイヤ識別子の向上したシグナリング
KR102442653B1 (ko) 비디오 코딩에서의 예측 모드 시그널링
US10356422B2 (en) Fast rate-distortion optimized quantization

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150717

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160622

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161102

R150 Certificate of patent or registration of utility model

Ref document number: 6038942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250