JP6158337B2 - 深度マップコーディング - Google Patents

深度マップコーディング Download PDF

Info

Publication number
JP6158337B2
JP6158337B2 JP2015532261A JP2015532261A JP6158337B2 JP 6158337 B2 JP6158337 B2 JP 6158337B2 JP 2015532261 A JP2015532261 A JP 2015532261A JP 2015532261 A JP2015532261 A JP 2015532261A JP 6158337 B2 JP6158337 B2 JP 6158337B2
Authority
JP
Japan
Prior art keywords
chain
prediction unit
partition
starts
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015532261A
Other languages
English (en)
Other versions
JP2015533036A (ja
Inventor
ジャオ、シン
ジャン、リ
チェン、イン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015533036A publication Critical patent/JP2015533036A/ja
Application granted granted Critical
Publication of JP6158337B2 publication Critical patent/JP6158337B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

[0001]本開示は、ビデオコーディングに関し、より詳細には、ビデオデータを符号化および復号するための方法および装置に関する。
[0002]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、ビデオ遠隔会議デバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、デジタルビデオ情報をより効率的に送信および受信するために、MPEG−2、MPEG−4、ITU−T H.263またはITU−T H.264/MPEG−4,Part10,アドバンストビデオコーディング(AVC:Advanced Video Coding)によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。
[0003]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間的予測および/または時間的予測を実施する。ブロックベースのビデオコーディングの場合、ビデオフレームまたはスライスはブロックに区分され得る。各ブロックはさらに区分され得る。イントラコード化(I)フレームまたはスライス中のブロックは、隣接ブロックに対する空間的予測を使用して符号化される。インターコード化(PまたはB)フレームまたはスライス中のブロックは、同じフレームまたはスライス中の隣接ブロックに対する空間的予測、あるいは他の参照フレームに対する時間的予測を使用し得る。
[0004]一例では、本開示は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く要素の位置の各々が予測ユニット内にあり、ここにおいて、最後の要素の位置は、最後から2番目の(penultimate)要素がチェーンの最後の要素であることを示すために予測ユニット外にある、チェーンに基づく予測ユニットのパーティションをコーディングすることとを含む、方法について説明する。
[0005]別の例では、本開示は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く要素の位置の各々が予測ユニット内にあり、ここにおいて、最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にある、チェーンに基づく予測ユニットのパーティションをコーディングすることとを行うように構成された1つまたは複数のプロセッサを含む、ビデオデータをコーディングするためのビデオコーダを含むデバイスについて説明する。
[0006]別の例では、本開示は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングするための手段と、ここにおいて、最後の要素を除く要素の位置の各々が予測ユニット内にあり、ここにおいて、最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にある、チェーンに基づく予測ユニットのパーティションをコーディングするための手段とを含む、ビデオデータをコーディングするための装置について説明する。
[0007]別の例では、本開示は、コンピュータ可読記憶媒体について説明する。実行されると、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く要素の位置の各々が予測ユニット内にあり、ここにおいて、最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にある、チェーンに基づく予測ユニットのパーティションをコーディングすることとを行わせる、命令を記憶したコンピュータ可読記憶媒体。
[0008]本発明の1つまたは複数の実施形態の詳細を添付の図面および以下の説明に記載する。本発明の他の特徴、目的、および利点は、これらの説明および図面、ならびに特許請求の範囲から明らかになろう。
[0009]例示的なマルチメディア符号化および復号システムを示すブロック図。 [0010]本開示で説明する1つまたは複数の例による、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングするための技法を実装し得るビデオエンコーダの一例を示すブロック図。 [0011]本開示で説明する1つまたは複数の例による、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングするための技法を実装し得るビデオデコーダの一例を示すブロック図。 [0012]角度予測の一例を示す図。 [0013]8×8ブロックのためのウェッジレットパターン(wedgelet pattern)を示す図。 [0014]8×8ブロックのための2つの不規則領域を示す図。 [0015]チェーンコード(chain code)のための1つの可能な方向インデックス500を示す図。 [0016]パーティションパターンを含むおよび例示的な深度PUを示す図。 [0017]パーティションパターンを含むおよび例示的な深度PUを示す図。 [0018]本開示で説明する1つまたは複数の例による、例示的な方法を示すフローチャート。 [0019]チェーンコーディングによってコーディングされたPUの復号プロセスを示すフローチャート。 [0020]チェーンコーディングにおける最後のチェーン位置の導出を示すフローチャート。 [0021]本開示で説明する1つまたは複数の例による、例示的な方法を示す別のフローチャート。
[0022]添付の図面は例を示している。添付の図面中の参照番号によって示される要素は、以下の説明における同様の参照番号によって示される要素に対応する。添付の図面において、省略符号は、その省略符号によって分離された要素と同様の1つまたは複数の要素の存在を示す。同様の要素のための参照番号に対するアルファベットの添え字は、それらの要素の特定の数の存在を示すものではない。本開示では、序数語(たとえば、「第1の」、「第2の」、「第3の」およびしたがって)で始まる名前を有する要素は、必ずしもそれらの要素が特定の順序を有することを暗示するとは限らない。そうではなく、そのような序数語は、単に、同じまたは同様の種類の異なる要素を指すために使用され得る。
[0023]ビデオデータのピクチャは、サンプルの1つまたは複数のブロックに関連する。本開示では、「サンプル」という用語は、ピクセルのルーマまたはクロマ成分など、ブロックの成分を定義する値を指すことがある。ピクチャの各サンプルブロックは、ピクチャ中のピクセルの異なる成分を指定することができる。
[0024]エンコーダは、最初に、ピクチャを「スライス」に区分し得る。スライスは、概して、ピクチャの単独で復号可能な部分を指すために使用される用語である。エンコーダは、次に、これらのスライスを、「コーディングツリーユニット」とも呼ばれる「ツリーブロック」に区分し得る。ツリーブロックは最大コーディングユニット(LCU:largest coding unit)と呼ばれることもある。エンコーダは、ツリーブロックの各々を漸進的により小さいコーディングユニット(CU)の階層に区分し得、このコーディングユニットの階層は、図示されると階層ツリー構造として表され得、したがって「ツリーブロック」という名称がある。ツリーブロックをこのようにして区分することにより、エンコーダは、異なるサイズの動きをキャプチャすることが可能になり得る。各未分割サンプルブロックは異なるコーディングユニット(CU)に対応する。説明を簡単にするために、本開示は、CUに対応するサンプルブロックをCUのサンプルブロックと呼ぶことがある。
[0025]エンコーダは、CUの各々について1つまたは複数の予測ユニット(PU:prediction unit)を生成することができる。エンコーダは、CUのサンプルブロックを予測エリアに区分することによってCUのためのPUを生成することができる。エンコーダは、次いでCUの各PU関して輪郭区分動作を実施し得る。たとえば、エンコーダは、PUが2つの不規則領域に区分され得るとき、輪郭区分を使用し得る。
[0026]一例では、輪郭区分を実施するビデオコーダがチェーンコーディングを伴い得る。たとえば、チェーンコーディングを使用するエンコーダまたはデコーダが、開始エッジを表すデータをコーディングし得る。エンコーダまたはデコーダは、チェーン開始エッジに沿ったチェーン開始位置をもコーディングし得る。エンコーダまたはデコーダは、ビデオ予測ユニットなど、予測ユニット中の各要素のためのチェーンコードワードと、予測ユニットの境界外の座標に対応する追加のチェーンコードワードとをもコーディングし得る。
[0027]一例では、ビデオコーダが、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングし得る。いくつかの例は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを生成することを含み得る。最後の要素を除く要素の位置の各々が予測ユニット内にあり得る。最後の要素の位置は予測ユニット外にあり得る。これは、最後から2番目のコーディングされた要素がチェーンの最後の要素であることを示すことができる。すなわち、チェーンの要素の位置が予測ユニット外にあることは、要素がチェーンの最後の要素であることを示し得る。たとえば、ビデオエンコーダは、チェーンが予測ユニットのエッジにおいて特定の要素において終了するべきであると判断し、チェーンの最終要素を予測ユニット外にあるものとしてコーディングし得る。同様に、ビデオデコーダは、予測ユニット外の位置を有するチェーンの要素をコーディングした後に、チェーンが終了したと判断し得る。いくつかの例は、チェーンに基づく予測ユニットのパーティションをコーディングし得る。
[0028]本明細書で説明するいくつかの例は、チェーン中の要素の数をシグナリングするのではなく、チェーン中の要素の数を導出することを提供する。従来、チェーン中の要素の総数をシグナリングすることは、N×N PUのためにlog2N+1ビットを使用する。しかしながら、本開示の技法を使用して、要素の数はビットストリームから除去され得、これはシグナリングオーバーヘッドを低減し得る。1つの追加の要素がパースされ得る。その追加の要素は、PUの境界外の座標に対応し得る。概してデコーダにおける、例では、各現在要素の座標(x,y)は、各チェーンコードのパーシング中およびその後に追跡され得、その結果、デコーダは、最後の要素がいつパースされたかを判断し得る。要素の座標が、チェーンコードをパースした後に、PUの境界の外にあり、チェーンの現在のパースされた数が1よりも大きいとき、チェーンコードのパーシングは終了する。
[0029]いくつかの例は、上境界または左境界のいずれかと交差するにすぎないことがあるパーティションパターンを提供する。他の例は、上境界、下境界、右境界、または左境界と交差することがあるパーティションパターンを提供する。2ビットが、チェーンが予測ユニットの上境界から開始するのか(たとえば、00)、左境界から開始するのか(たとえば、01)、下境界から開始するのか(たとえば、10)、右境界から開始するのか(たとえば、11)をシグナリングするために使用され得る。さらに他の例は、これらの何らかのサブセットと交差するパーティションパターンを提供し得る。いくつかの例では、チェーンが下から開始するとき、開始位置は、チェーンが上から開始するのと同様の方法で初期化され得、復号されたパーティションパターンは上および下に反転される。チェーンが右から開始するとき、開始位置は、チェーンが左から開始するのと同様の方法で初期化され得、復号されたパーティションパターンは右および左に反転される。
[0030]代替的に、1ビットが、左から開始することを示すために使用され得、2ビットが、上または下のいずれかから開始することを示すために使用され得る。たとえば、0が左境界開始位置を示し得、10が上境界開始位置を示し得、11が下境界開始位置を示し得る。場合によっては、下から開始するとき、チェーンは、PUの右境界において終了し得る。たとえば、そのような場合、ビデオコーダは、チェーンが下境界から開始する場合、チェーンがPUの右境界において終了すると判断するように構成され得る。他の例では、ビデオコーダは、チェーンが上境界から開始する場合、チェーンがPUの右境界において終了すると判断するように構成され得る。下から開始していずれかの境界において終了すること、または上境界から開始していずれかの境界において終了することなど、境界開始ロケーションと境界終了ロケーションの他の組合せも可能である。
[0031]図1は、例示的なマルチメディア符号化および復号システム10を示すブロック図である。マルチメディア符号化および復号システム10は、ビデオデータをキャプチャし、キャプチャされたビデオデータを符号化し、符号化されたビデオデータを送信し、符号化されたビデオデータを復号し、次いで、復号されたビデオデータを再生する。
[0032]マルチメディア符号化および復号システム10は、ソースユニット12と、符号化ユニット14と、復号ユニット16と、提示ユニット18とを備える。ソースユニット12はビデオデータを生成する。符号化ユニット14はそのビデオデータを符号化する。復号ユニット16は、符号化されたビデオデータを復号する。提示ユニット18は、復号されたビデオデータを提示する。
[0033]1つまたは複数のコンピューティングデバイスは、ソースユニット12と、符号化ユニット14と、復号ユニット16と、提示ユニット18とを実装する。本開示では、コンピューティングデバイスという用語は、情報を処理する物理デバイスを包含する。例示的なタイプのコンピューティングデバイスとしては、パーソナルコンピュータ、ラップトップコンピュータ、携帯電話、スマートフォン、タブレットコンピュータ、車載コンピュータ、テレビジョンセットトップボックス、ビデオ会議システム、ビデオ生成機器、ビデオカメラ、ビデオゲームコンソール、または情報を処理する他のタイプのデバイスがある。
[0034]いくつかの例では、単一のコンピューティングデバイスは、ソースユニット12と、符号化ユニット14と、復号ユニット16と、提示ユニット18とのうちの2つ以上を実装し得る。たとえば、単一のコンピューティングデバイスは、ソースユニット12と符号化ユニット14とを実装し得る。この例では、別のコンピューティングデバイスが、復号ユニット16と提示ユニット18とを実装し得る。他の例では、異なるコンピューティングデバイスが、ソースユニット12と、符号化ユニット14と、復号ユニット16と、提示ユニット18とを実装する。
[0035]図1の例では、コンピューティングデバイス13が符号化ユニット14を実装し、コンピューティングデバイス17が復号ユニット16を実装する。いくつかの例では、コンピューティングデバイス13は、符号化ユニット14の他に機能を与え得る。さらに、いくつかの例では、コンピューティングデバイス17は、復号ユニット16の他に機能を与え得る。
[0036]いくつかの例では、符号化デバイス14は、チェーンの要素の位置を表すデータを符号化し得る。これらの位置要素は、ビデオデータの予測ユニットを区分し得るチェーンを構成する。言い換えれば、それらの要素は、予測ユニットを区分するチェーンを集合的に形成する。最後の要素を除く要素の位置の各々が予測ユニット内にあり得る。最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にある。符号化ユニット14は、チェーンに基づく予測ユニットのパーティションを符号化し得る。詳細には、イントラ予測コーディングについて、符号化ユニット14は、区分された予測ユニットの第1および第2のパーティションのために異なるイントラ予測コーディングモードを判断し得る。その上、符号化ユニット14は、パーティションの各々についてイントラ予測モードの別個の指示を与え、それぞれのイントラ予測モードを使用して各パーティションを予測し、パーティションマップを使用してそれら2つのパーティションを組み合わせ得る。たとえば、「0」に対応するすべての値は、第1のパーティションブロックからの値でオーバーレイされ得る。「1」の値を有するすべての値は、第2のパーティションブロックからの値でオーバーレイされ得る。符号化ユニット14は、残差を判断するための差を計算するために、この組み合わされたブロックを使用し得る。ブロックは、次いで、変換され、量子化され、CABACコーディングされ得る。
[0037]同様に、復号ユニット16は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号し得る。この場合も、最後の要素を除く要素の位置の各々が予測ユニット内にあり得、最後の要素の位置は、最後の要素がチェーンの最後の要素であることを示すために予測ユニット外にあり得る。したがって、復号ユニット16は、チェーンに基づく予測ユニットのパーティションを復号し得る。詳細には、イントラ予測コーディングについて、復号ユニット16は、区分された予測ユニットの第1および第2のパーティションのために、異なるイントラ予測コーディングモードが何であるかを示す値を復号し得る。その上、復号ユニット16は、パーティションの各々についてイントラ予測モードの別個の指示を与え、それぞれのイントラ予測モードを使用して各パーティションを予測し、パーティションマップを使用してそれら2つのパーティションを組み合わせ得る。より詳細には、復号ユニット16は、量子化された変換係数をCABAC復号し、残差ブロックを逆変換し、逆量子化し、その残差をPU中に追加して戻し得る。さらに、復号ユニット16は、PUを区分するためのイントラモードを判断し、チェーン要素を表すデータを復号し、チェーンコーディングモードを使用してPUを区分し得る。このようにして、元のブロックは再生され得る。
[0038]上記で手短に説明したように、ソースユニット12は、一連のピクチャを表すビデオデータを生成する。ピクチャは、一般に「ピクチャ」とも呼ばれる。ビデオデータ中の一連のピクチャが迅速に連続して(たとえば、24または25ピクチャ毎秒で)ユーザに提示されるとき、ユーザは、ピクチャ中のオブジェクトが動いていると知覚し得る。
[0039]様々な例において、ソースユニット12は、ビデオデータを様々な方法で生成する。たとえば、ソースユニット12はビデオカメラを備え得る。この例では、ビデオカメラは、視認できる環境から画像をキャプチャする。別の例では、ソースユニット12は、医療、産業、または科学用イメージングのための1つまたは複数のセンサーを備え得る。そのようなセンサーは、x線検出器、磁気共鳴イメージングセンサー、粒子検出器などを含み得る。さらに別の例では、ソースユニット12はアニメーションシステムを備え得る。この例では、1人または複数のユーザが、このアニメーションシステムを使用して、彼らの想像からビデオデータのコンテンツを描画、作成、プログラム、または他の方法でデザインする。
[0040]符号化ユニット14は、ソースユニット12によって生成されたビデオデータを受信する。符号化ユニット14は、より少ないデータでビデオデータ中の一連のピクチャが表されるようにビデオデータを符号化する。いくつかの事例では、ビデオデータが、DVDまたはCD−ROMなど、所与のタイプのコンピュータ可読媒体に記憶され得ることを保証するために、このようにしてビデオデータを符号化することが必要であり得る。さらに、いくつかの事例では、ビデオデータが、インターネットなどの通信ネットワークを介して効率的に送信され得ることを保証するために、このようにしてビデオデータを符号化することが必要であり得る。
[0041]符号化ユニット14は、ビデオピクチャのシーケンスまたは連続としてしばしば表される、ビデオデータを符号化し得る。符号化ユニット14は、これらのピクチャを(一般に「スライス」と呼ばれる)単独で復号可能な部分に分割し得、符号化ユニット14は、今度は、これらの部分をツリーブロックに分割し得る。これらのツリーブロックは、ある形式の再帰的階層4分木分割を受け得る。符号化ユニット14は、この分割を実施して、階層ツリー状のデータ構造を生成し得、そのルートノードはツリーブロックである。ツリーブロック内の各未分割サンプルブロックは異なるCUに対応する。未分割サンプルブロックのCUは、未分割サンプルブロックに関する、動き情報および変換情報を含む、情報を含んでいることがある。
[0042]様々な例が2Dビデオコーディングに適用され得るが、概して、本明細書で説明する例示的なシステムおよび方法は3Dビデオコーディングに関係する。深度コーディング技法を含む、様々なコーディング技法はアドバンストコーデックに基づき得る。いくつかの例示的な提案する深度コーディング技法は深度マップイントラコーディングに関係する。
[0043]いくつかの例示的なビデオコーディング規格は、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、ならびに、それのスケーラブルビデオコーディング(SVC:Scalable Video Coding)拡張およびマルチビュービデオコーディング(MVC:Multiview Video Coding)拡張を含む(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264を含む。MVCの最新のジョイントドラフトは、参照により本明細書に組み込まれる「Advanced video coding for generic audiovisual services」、ITU−T勧告H.264、2010年3月、に記載されている。
[0044]さらに、ITU−Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)とISO/IECモーションピクチャエキスパートグループ(MPEG:Motion Picture Experts Group)とのジョイントコラボレーションチームオンビデオコーディング(JCT−VC:Joint Collaboration Team on Video Coding)によって開発されている、一般に高効率ビデオコーディング(HEVC:High Efficiency Video Coding)と呼ばれる、ビデオコーディング規格がある。HEVC規格の最近のドラフトは以下において入手可能である。
http://phenix.it−sudparis.eu/jct/doc_end_user/documents/10_Stockholm/wg11/JCTVC−J1003−v8.zip
[0045]HEVCは、最高64×64ピクセルのブロックを使用し得る。そのような構成は、より良くピクチャを変数サイズの構造に下位区分し得る。たとえば、HEVCは、初めにピクチャをコーディングツリーユニット(CTU:coding tree unit)に分割し得、CTUは、次いで各ルーマ/クロマ成分についてコーディングツリーブロック(CTB:coding tree block)に分割得る。CTBは、たとえば、64×64、32×32、または16×16であり得る。より大きいブロックサイズは、通常、コーディング効率を増加させ得る。CTBは、よりもコーディングユニット(CU)に分割される。
[0046]CTB内のCUの構成は、再分割により4つのより小さい領域が生じるので、4分木と呼ばれることがある。CUは、次いで、64×64から4×4までサイズが変動することがある、イントラピクチャ予測タイプまたはインターピクチャ予測タイプのいずれかの予測ユニット(PU)に分割され得る。予測残差は、次いで、空間ブロック変換および量子化のための係数を含んでいる、変換ユニット(TU:transform unit)を使用してコーディングされ得る。TUは32×32、16×16、8×8、または4×4であり得る。いくつかの例では、HEVCは、各PUについてルーマ成分を使用し得る。
[0047]HEVCは、角度予測を利用したイントラ予測コーディング方法をも使用し得る。角度予測は、方向予測の例示的な方法である。角度モードでは、システムが、角度を示す一連の可能なモードのうちの1つを与えることによって予測方向を与え得る。これらの角度は、垂直予測の場合、ブロックの最下行とブロックの上にある参照行との変位を、または水平予測の場合、ブロックの最右列とブロックから左の参照列との変位を示し得る。その変位は、1ピクセル精度でシグナリングされ得る。予測されたピクセルの投影が参照サンプルの間に入るとき、ピクセルのための予測された値は、参照サンプルから線形補間され得る。
[0048]図2は、本開示で説明する1つまたは複数の例による、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングするための技法を実装し得るビデオエンコーダ20の一例を示すブロック図である。一例では、図1のビデオ符号化ユニット14はビデオエンコーダ20であり得る。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実施し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間的冗長性を低減または除去するために時間的予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースの圧縮モードのいずれかを指すことがある。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースの圧縮モードのいずれかを指すことがある。
[0049]図2に示されているように、ビデオエンコーダ20は、符号化されるべきビデオピクチャ内の現在ビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、モード選択ユニット40と、参照フレームメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピーコーディングユニット56とを含む。モード選択ユニット40は、今度は、動き補償ユニット44と、動き推定ユニット42と、イントラ予測ユニット46と、パーティションユニット48とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図2に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理することになる。追加のフィルタ(ループ内またはループ後)もデブロッキングフィルタに加えて使用され得る。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器50の出力をフィルタ処理し得る。
[0050]符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオピクチャまたはスライスを受信する。ピクチャまたはスライスは複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間圧縮を行うために、1つまたは複数の参照ピクチャ中の1つまたは複数のブロックに対する受信したビデオブロックのインター予測コーディングを実施する。イントラ予測ユニット46は、代替的に、空間圧縮を行うために、コーディングされるべきブロックと同じピクチャまたはスライス中の1つまたは複数の隣接ブロックに対する受信したビデオブロックのイントラ予測コーディングを実施し得る。ビデオエンコーダ20は、たとえば、ビデオデータのブロックごとに適切なコーディングモードを選択するために、複数のコーディングパスを実施し得る。
[0051]その上、パーティションユニット48は、前のコーディングパスにおける前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、パーティションユニット48は、初めにピクチャまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、LCUをサブCUに区分することを示す4分木データ構造をさらに生成し得る。4分木のリーフノードCUは、1つまたは複数のPUおよび1つまたは複数のTUを含み得る。
[0052]モード選択ユニット40は、たとえば、誤差結果に基づいてコーディングモード、すなわち、イントラまたはインターのうちの1つを選択し得、残差ブロックデータを生成するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器50に与え、参照ピクチャとして使用するための符号化されたブロックを再構成するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器62に与える。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、パーティション情報、および他のそのようなシンタックス情報など、シンタックス要素をエントロピーコーディングユニット56に与える。
[0053]動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示されている。動き推定ユニット42によって実施される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在ピクチャ(または他のコーディングされたユニット)内でコーディングされている現在ブロックに対する参照ピクチャ(または他のコーディングされたユニット)内の予測ブロックに対する現在ビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって判断され得るピクセル差分に関して、コーディングされるべきブロックにぴったり一致することがわかるブロックである。いくつかの例では、ビデオエンコーダ20は、参照フレームメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置と分数ピクセル位置とに関して動き探索を実施し、分数ピクセル精度で動きベクトルを出力し得る。
[0054]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコーディングされたスライスにおけるビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、それらの参照ピクチャリストの各々は、参照フレームメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。
[0055]動き補償ユニット44によって実施される動き補償は、動き推定ユニット42によって判断された動きベクトルに基づいて予測ブロックをフェッチまたは生成することに関与し得る。この場合も、いくつかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。現在ビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照ピクチャリストのうちの1つにおいて指す予測ブロックの位置を特定し得る。加算器50は、以下で説明するように、コーディングされている現在ビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42はルーマ成分に対して動き推定を実施し、動き補償ユニット44は、クロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するためのビデオブロックとビデオスライスとに関連するシンタックス要素を生成し得る。
[0056]イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実施されるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在ブロックを符号化するために使用すべきイントラ予測モードを判断し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。
[0057]たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化されたブロックと、符号化されたブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化されたブロックを生成するために使用されるビットレート(すなわち、ビット数)を判断する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを判断するために、様々な符号化されたブロックのひずみおよびレートから比を計算し得る。
[0058]ブロックのためにイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピーコーディングユニット56に与え得る。エントロピーコーディングユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、送信ビットストリーム中に、複数のイントラ予測モードインデックステーブルおよび複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)と、様々なブロックの符号化コンテキストの定義と、コンテキストの各々について使用すべき、最確イントラ予測モード、イントラ予測モードインデックステーブル、および変更されたイントラ予測モードインデックステーブルの指示とを含み得る、構成データを含め得る。
[0059]ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって残差ビデオブロックを形成する。加算器50は、この減算演算を実施する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を含むビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様である他の変換を実施し得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換し得る。変換処理ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化された変換係数を含む行列の走査を実施し得る。代替的に、エントロピー符号化ユニット56が走査を実施し得る。
[0060]量子化の後に、エントロピーコーディングユニット56は量子化された変換係数をエントロピーコーディングする。たとえば、エントロピーコーディングユニット56は、コンテキスト適応型可変長コーディング(CAVLC:context adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE:probability interval partitioning entropy)コーディングまたは別のエントロピーコーディング技法を実施し得る。コンテキストベースエントロピーコーディングの場合、コンテキストは隣接ブロックに基づき得る。エントロピーコーディングユニット56によるエントロピーコーディングの後に、符号化されたビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)に送信されるか、あるいは後で送信するかまたは取り出すためにアーカイブされ得る。
[0061]逆量子化ユニット58および逆変換ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば、参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照フレームメモリ64のフレームのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するためのサブ整数ピクセル値を計算し得る。加算器62は、再構成された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照フレームメモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオピクチャ中のブロックをインターコーディングするために動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0062]このようにして、図2のビデオエンコーダ20は、チェーンの要素の位置を表すデータをコーディングするように構成されたビデオエンコーダの一例を表す。チェーンは、ビデオデータの予測ユニットを区分し得る。さらに、最後の要素を除く要素の位置の各々が予測ユニット内にあり得る。最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にあり得る。ビデオエンコーダ20は、チェーンに基づく予測ユニットのパーティションをもコーディングし得る。
[0063]一例では、モード選択ユニット40は、深度PUのためのチェーンコーディングモードを選択し得る。ビデオエンコーダ20は、チェーンコーディングを使用して、開始エッジを表すデータを符号化し得る。ビデオエンコーダ20は、チェーン開始エッジに沿ったチェーン開始位置をも符号化し得る。ビデオエンコーダ20は、ビデオ予測ユニットなど、予測ユニット中の各要素のためのチェーンコードワードと、予測ユニットの境界外の座標に対応する追加のチェーンコードワードとをもコーディングし得る。
[0064]さらに、一例では、パーティションユニット48は、チェーンを使用してPUを区分する。たとえば、深度ブロックが直線によって2つの領域に区分され得る。モード選択ユニット40は、PUのパーティションのためのイントラ予測モードを判断し得る。
[0065]この例では、イントラ予測ユニット46は、チェーンとイントラ予測モードとに基づいてPUのための予測された値を生成し得る。その上、チェーンを表すデータがシンタックス要素としてエントロピーコーディングユニット56に送られ得、エントロピーコーディングユニット56は、CABACを使用してシンタックス要素をコーディングする。イントラ予測ユニット46は、残差ブロックを形成するために加算器50にPUをも送る。
[0066]図3は、本開示で説明する1つまたは複数の例による、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングするための技法を実装し得るビデオデコーダ30の一例を示すブロック図である。一例では、図1のビデオ復号ユニット16はビデオエンコーダ20であり得る。図3の例では、ビデオデコーダ30は、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、参照ピクチャメモリ82と、加算器80とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明した符号化パスとは概して逆の復号パスを実施し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルに基づいて予測データを生成し得、イントラ予測ユニット74は、エントロピー復号ユニット70から受信されたイントラ予測モードインジケータに基づいて予測データを生成し得る。
[0067]復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化されたビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化されたビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット70は、量子化された係数と、動きベクトルまたはイントラ予測モードインジケータと、他のシンタックス要素とを生成するために、ビットストリームをエントロピー復号する。エントロピー復号ユニット70は、動きベクトルと他の予測シンタックス要素とを動き補償ユニット72に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0068]ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックのための予測データを生成し得る。ビデオピクチャがインターコード化(すなわち、B、PまたはGPB)スライスとしてコーディングされるとき、動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルと他のシンタックス要素とに基づいて、現在ビデオスライスのビデオブロックのための予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ92に記憶された参照ピクチャに基づいて、デフォルト構成技法を使用して、参照ピクチャリスト、リスト0およびリスト1を構成し得る。
[0069]動き補償ユニット72は、動きベクトルと他のシンタックス要素とをパースすることによって現在ビデオスライスのビデオブロックのための予測情報を判断し、その予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。たとえば、動き補償ユニット72は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラまたはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスの参照ピクチャリストのうちの1つまたは複数のための構成情報と、スライスの各インター符号化されたビデオブロックのための動きベクトルと、スライスの各インターコーディングされたビデオブロックのためのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを判断するために、受信されたシンタックス要素のいくつかを使用する。
[0070]動き補償ユニット72はまた、補間フィルタに基づいて補間を実施し得る。動き補償ユニット72は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。この場合、動き補償ユニット72は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを判断し、その補間フィルタを使用して予測ブロックを生成し得る。
[0071]逆量子化ユニット76は、ビットストリーム中で与えられ、エントロピー復号ユニット70によって復号された、量子化された変換係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化プロセスは、量子化の程度を判断し、同様に、適用されるべき逆量子化の程度を判断するための、ビデオスライス中のビデオブロックごとにビデオエンコーダ30によって計算される量子化パラメータQPYの使用を含み得る。
[0072]逆変換ユニット78は、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用して、ピクセル領域において残差ブロックを生成する。
[0073]動き補償ユニット82が、動きベクトルと他のシンタックス要素とに基づいて現在ビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックを動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号されたビデオブロックを形成する。加算器90は、この加算演算を実施する1つまたは複数の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために、復号されたブロックをフィルタ処理するためにデブロッキングフィルタも適用され得る。ピクセル遷移を平滑化するために、または場合によってはビデオ品質を改善するために、他のループフィルタも(コーディングループ中またはコーディングループ後のいずれかで)使用され得る。所与のフレームまたはピクチャ中の復号されたビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶する参照フレームメモリ82に記憶される。参照フレームメモリ82はまた、図1のディスプレイデバイス32などのディスプレイデバイス上での後の提示のために、復号されたビデオを記憶する。
[0074]このようにして、図3のビデオデコーダ30は、チェーンの要素の位置を表すデータをコーディングするように構成されたビデオデコーダの一例を表す。チェーンは、ビデオデータの予測ユニットを区分し得る。さらに、最後の要素を除く要素の位置の各々が予測ユニット内にあり得る。最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にあり得る。ビデオデコーダ30は、チェーンに基づく予測ユニットのパーティションをもコーディングし得る。
[0075]一例では、深度PUのためのチェーンコーディングモードがビデオデコーダ30内で判断され得る。ビデオデコーダ30は、チェーンコーディングを使用して、開始エッジを表すデータを復号し得る。ビデオデコーダ30は、チェーン開始エッジに沿ったチェーン開始位置をも復号し得る。ビデオデコーダ30は、ビデオ予測ユニットなど、予測ユニット中の各要素のためのチェーンコードワードと、予測ユニットの境界外の座標に対応する追加のチェーンコードワードとをも復号し得る。
[0076]さらに、イントラ予測ユニット74は、パーティションがどこにあるかを判断するためのチェーンと、パーティションのための予測された値を計算するためのイントラ予測モードの指示とを使用して、パーティションのための予測された値を計算し得る。モード選択ユニット40は、PUのパーティションのためのイントラ予測モードを判断し得る。
[0077]この例では、イントラ予測ユニット74は、チェーンとイントラ予測モードとに基づいてPUのための予測された値を生成し得る。その上、チェーンを表すデータがシンタックス要素としてエントロピー復号ユニット70に受信され得、エントロピー復号ユニット70は、CABACを使用してシンタックス要素を復号する。イントラ予測ユニット74は、復号されたビデオを生成するために残差ブロックと加算されるように、加算器80に予測データをも送る。
[0078]図4は、たとえば、様々な対応するイントラ予測モードによる、角度予測の一例を示す図である。たとえば、図4に示された様々な角度予測モードは、本開示の技法に従って区分されたPUの様々なパーティションを予測するために使用され得る。たとえば、これらの角度予測は、ビデオエンコーダ20またはビデオデコーダ30とともに使用され得る。図4に示されているように、HEVCは、DCおよび平面予測モードなどの非角度予測モードに加えて、(2から34までインデックス付けされた)33個の角度予測モードを利用するイントラ予測コーディング方法を使用し得る。したがって、(図1の符号化ユニット14および/または復号ユニット16のいずれかまたは両方などの)HEVCを使用するシステムが、たとえば、図4に示されているように角度を示すモード2〜34のうちの1つを与えることによって予測方向を与え得る。特に、本開示の技法によれば、ビデオコーダが、本開示のチェーンコーディング技法を使用して区分された、PUの各パーティションについてイントラ予測モードの表現をコーディングし得る。HEVCは、図4に示されているように、(1でインデックス付けされた)DCモードと(0でインデックス付けされた)平面モードとをも使用し得る。3D−HEVCでは、イントラ予測モードの同じ定義が利用され得る。たとえば、図4に関して、(たとえば、2〜34のインデックス付けされた)予測モードは、様々なイントラ予測モードを表す値をコーディングするためにビデオエンコーダ20およびまたはビデオデコーダ30によって使用され得る。その上、チェーンコーディングから生じるPUの2つの異なるパーティションP0/P1が、異なるイントラ予測モードを有し得る。エンコーダおよびデコーダは、それら2つの異なるパーティションの各々についてそれらの異なるイントラ予測モードを表す値をコーディングし得る。
[0079]MPEGにおける何らかの例示的なHEVCベースの3Dビデオコーディング(3D−HEVC)コーデックは、m22570およびm22571において提案されたソリューションに基づき得る。3D−HEVCのための参照ソフトウェアHTMバージョン4.0が以下のリンクからダウンロードされ得る。
[HTM−4.0]:https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/tags/HTM−4.0。
ソフトウェア記述(文書番号:w12774)が以下から入手可能である。
http://wg11.sc29.org/doc_end_user/documents/100_Geneva/wg11/w12744−v2−w12744.zip。
[0080]3D−HEVCでは、各アクセスユニットが複数のビューコンポーネントを含んでいることがあり、各々が、一意のビュー識別情報(ID)、またはビュー順序インデックス、またはレイヤIDを含んでいる。ビューコンポーネントは、テクスチャビューコンポーネントならびに深度ビューコンポーネントを含んでいる。HVECを使用するシステムが、テクスチャビューコンポーネントを1つまたは複数のテクスチャスライスとしてコーディングし得るが、深度ビューコンポーネントは1つまたは複数の深度スライスとしてコーディングされる。一例では、1つの深度ブロックの属性が別のコロケートブロックから継承され得る。たとえば、深度ブロックのルーマは、コロケートルーマブロックからイントラ予測方向を継承し得る。さらに、「コロケート」は、ルーマブロックの位置が、ルーマピクチャと深度ピクチャとの間のピクセル解像度の差に基づいて、スケーリングされることを意味し得る。
[0081]いくつかの例は、3Dビデオコーディングにおいて深度マップコーディングを使用し得る。そのような例では、3Dビデオデータは、キャプチャされたビュー(テクスチャ)が対応する深度マップに関連する、マルチビュービデオ+深度フォーマットを使用して表され得る。3Dビデオコーディングでは、テクスチャと深度マップとはコーディングされ、3Dビデオビットストリーム中に多重化される。深度マップはグレースケールビデオとしてコーディングされ、そこで、ルーマサンプルは深度値を表し、従来のイントラコーディングおよびインターコーディング方法が深度マップコーディングのために適用され得る。
[0082]深度マップは、シャープエッジと一定のエリアとによって特徴づけられ得、深度マップ中のエッジは、常に、対応するテクスチャとの強い相関を提示する。テクスチャと、対応する深度との間の異なる統計値および相関により、異なるコーディング方式が、2Dビデオコーデックに基づく深度マップのために設計される。3D−HEVCでは、深度モデリングモード(DMM:Depth Modeling Mode)が、深度スライスのイントラ予測ユニットをコーディングするためにHEVCイントラ予測モードとともに導入され得る。
[0083]深度マップにおけるシャープエッジのより良い表現のために、HTMバージョン4.0は、深度マップのイントラコーディングのために深度モデリングモード(DMM)方法を適用する。DMMにおいて4つの新しいイントラモードがある。すべての4つのモードでは、深度ブロックが、DMMパターンによって指定された2つの領域に区分され得、各領域は一定値によって表される。DMMパターンは、明示的にシグナリングされる(モード1)か、空間的に隣接するブロックによって予測される(モード2)か、またはコロケートテクスチャブロックによって予測される(モード3およびモード4)かのいずれかであり得る。ウェッジレット区分と輪郭区分とを含む、DMMにおいて定義されている2つの区分モデルがある。本開示の技法は輪郭区分モデルにおいて使用され得る。
[0084]図5は、8×8ブロック302のためのウェッジレットパターン300を示す図である。いくつかの例では、ウェッジレットパターン300は、図1の符号化ユニット14および/または復号ユニット16のいずれかまたは両方などのユニットにおいて処理され得る。ウェッジレットパーティションについて、深度ブロックが、図5に示されているように、直線304によって、2つの領域、P0およびP1に区分され得る。ウェッジレットは、潜在的により効率的に画像を近似するための近似として使用され得る。図5に示されているように、これらの近似は、ブロック302を2つの領域、P0およびP1に区分することによって取得され得、それらの領域は、番号の2つのセットを形成する(たとえば、「白」を示す一連の「0」を有するP0、および「黒」を示す一連の「1」を有するP1)。他の色も番号のセットによって示され得ることを理解されよう。したがって、いくつかの例では、ブロック302は線304によって定義され得る。したがって、8×8ブロック302中のすべての64個のピクセルに関係するデータを送信する代わりに、線304に関係するデータが送信され得る。ブロック302は、ただ、線304のロケーションと、その線の各側の色とから生成され得る。概して、8×8ブロック302のためのウェッジレットパターン300など、いくつかの形状について、パターンを表すために必要なデータは、すべての64個のピクセルを個々に表すために必要なデータよりも少ないことがある。したがって、たとえば、本開示の技法を使用して、より少数のビットが送信され得る。
[0085]図6は、8×8ブロック406のための2つの不規則領域400、402を示す図である。不規則領域400、402について、深度ブロック406が、図6に示されているように、線408、410によって、2つの領域、P0およびP1に区分され得る。図5に関して説明したウェッジレットと同様に、8×8ブロック406のための2つの不規則領域400、402は、ブロック406を含む画像を潜在的により効率的に近似するための近似として使用され得る。図6に示されているように、これらの近似は、ブロック404を、連続していない2つの領域、P0およびP1に区分することによって取得され得る。2つの領域、P0およびP1は、番号の2つのセットを形成する(たとえば、「白」を示す一連の「0」を有するP0、および「黒」を示す一連の「1」を有するP1)。他の色も番号のセットによって示され得ることを理解されよう。したがって、いくつかの例では、ブロック406は線408および410によって定義され得る。したがって、8×8ブロック406中のすべての64個のピクセルに関係するデータを送信する代わりに、線408および410に関係するデータが送信され得る。ブロック406は、ただ、線408および410のロケーションと、2つの領域、P0およびP1の各々の上での色とから生成され得る。概して、8×8ブロック406のための2つの不規則領域P0およびP1などのいくつかの形状について、パターンを表すために必要なデータは、すべての64個の個々のピクセルを個々に表すために必要なデータよりも少ないことがある。したがって、たとえば、本開示の技法を使用して、より少数のビットが送信され得る。
[0086]輪郭区分について、深度ブロック406は、図6に示されているように、2つの不規則領域400、402に区分され得る。いくつかの例では、不規則領域400、402は、図1の符号化ユニット14および/または復号ユニット16のいずれかまたは両方などのユニットにおいて処理され得る。輪郭区分は、ウェッジレット区分よりもフレキシブルであるが、シグナリングすることが困難であり得る。DMMモード4では、輪郭区分パターンは、コロケートテクスチャブロックの再構成されたルーマサンプルを使用して暗黙的に導出され得る。DMM方法は、HEVCにおいて指定されたイントラ予測モードの代替として組み込まれる。一例では、DMMが適用されるのかユニファイドイントラ予測(unified intra prediction)が適用されるのかを指定するために、1ビットフラグが各PUについてシグナリングされ得る。
[0087]いくつかの例は領域境界チェーンコーディングモードを使用し得る。3D−HEVCでは、領域境界チェーンコーディングモードは、深度スライスのイントラ予測ユニットをコーディングするためにHEVCイントラ予測モードおよびDMMモードとともに導入される。簡潔のために、「領域境界チェーンコーディングモード」は「チェーンコーディング」によって示される。
[0088]チェーンコードは、モノクローム画像のための圧縮アルゴリズムである。チェーンコーディングは、チェーン要素に関してロスレスである。チェーンコードの基本原理は、画像における各連結成分を別個に符号化することである。たとえば、図5および図6に示されているように、領域P1が符号化され得る。したがって、これらの領域P1について、境界上の点が選択され得、それの座標が送信され得る。エンコーダは、次いでその領域の境界に沿って移動し、各ステップにおいて、この移動の方向を表すシンボルを送信する。これは、たとえば、図6に示されているように、領域がブロック内に含まれている場合、エンコーダが開始位置に戻るまで、あるいは、領域がブロックのエッジに接触するかまたはブロック内に含まれているとき、エッジに達するまで、続き得る。場合によっては、プロセスは、ブロック内の複数の領域P1をコーディングするために繰り返され得る。この符号化方法は、適度に少数の大きい連結成分からなる画像のために特に有効であり得る。別の例では、領域P1ではなくP0が符号化され得ることを理解されよう。
[0089]一例では、PUのチェーンコーディングがシグナリングされ得る。たとえば、本開示の技法は、図5に示されたPUとともに使用され得る。しかしながら、これらの技法は、概して、図6に示されたPUに適用されないことになる。いくつかの例では、チェーンコーディングが使用されるとき、チェーンの開始位置と、チェーンコードの数と、各チェーン要素のための方向インデックスとがシグナリングされ得る。しかしながら、いくつかの例では、チェーンコードの数は、シグナリングされるのではなく、たとえば、受信機において、導出され得る。チェーンコードの数をシグナリングしない例では、送信機がシグナリングするように要求され得るビット数は減少され得る。
[0090]図7は、チェーンコードのための1つの可能な方向インデックス425を示す図である。たとえば、図7に示されているように、「0」の方向インデックス値は、1つのチェーン要素から次のチェーン要素への方向が左であることを示す。言い換えれば、1つのチェーンから次のチェーン要素に到達するために、左の1つのピクセルに移動する。同様に、「1」の方向インデックス値は、1つのチェーン要素から次のチェーン要素への方向が右であることを示す。「2」の方向インデックス値は、1つのチェーン要素から次のチェーン要素への方向が上であることを示す。「3」の方向インデックス値は、1つのチェーン要素から次のチェーン要素への方向が下であることを示す。
[0091]図7に示されているように、角度方向は、「4」の方向インデックス値が、1つのチェーン要素から次のチェーン要素への方向が、たとえば、「0」の方向インデックス値によって示された方向と「2」の方向インデックス値によって示された方向との間の、左上であることを示す場合も、可能である。同様に、「5」の方向インデックス値は、1つのチェーン要素から次のチェーン要素への方向が、たとえば、「1」の方向インデックス値によって示された方向と「2」の方向インデックス値によって示された方向との間の、右上であることを示す。「6」の方向インデックス値は、1つのチェーン要素から次のチェーン要素への方向が、たとえば、「0」の方向インデックス値によって示された方向と「3」の方向インデックス値によって示された方向との間の、左下であることを示す。「7」の方向インデックス値は、1つのチェーン要素から次のチェーン要素への方向が、たとえば、「1」の方向インデックス値によって示された方向と「3」の方向インデックス値によって示された方向との間の、右下であることを示す。したがって、いくつかの例では、各チェーンコードの方向インデックス425は、前のチェーンコードの方向インデックスに基づいて異なってコーディングされ得る。いくつかの例では、これらの角度方向は、図1の符号化ユニット14および/または復号ユニット16のいずれかまたは両方などのユニットにおいて使用され得る。
[0092]一例では、それは、チェーン要素の数を含まないビットストリームのシグナリングを可能にし得、チェーンコーディングは、以下のステップを実施することによってパーティションパターンを指定し得る。
1. チェーンが上から開始するのか左から開始するのかをシグナリングするフラグ
そのフラグは、チェーンが上から開始する場合、「0」として設定され、そのフラグは、チェーンが左から開始する場合、「1」として設定される。いくつかの例では、より多くのビットが、追加の開始位置のシグナリングを提供するために使用され得る。たとえば、2ビットが、チェーンが上境界から開始するのか(たとえば、00)、左境界から開始するのか(たとえば、01)、下境界から開始するのか(たとえば、10)、右境界から開始するのか(たとえば、11)をシグナリングするために使用され得る。
2. チェーンの開始点位置
N×N PUについて、log2Nビットが、開始位置を指定するために使用される。
3. パースされ得る1つの追加のチェーン要素と、PUの境界外の座標に対応するチェーン要素とを含む、一連の連結チェーンの方向。各現在チェーン要素の終了座標(x,y)は、各チェーンコードのパーシング中およびその後に追跡され得、チェーンコードをパースした後の座標がPUの境界の外にあり、チェーンの現在のパースされた数が1よりも大きいとき、チェーンコードのパーシングは終了する。
4. 各チェーン要素は、サンプル(すなわち、ピクセル)と、図7に示されているように、0から7までインデックス付けされた、それの8連結性サンプルのうちの1つとを連結する。
[0093]これらのステップについて、図8に関して以下でより詳細に説明する。
[0094]上記で説明した例とは対照的に、チェーン要素の数を含まないビットストリームのシグナリングを提供することなしに、上境界、下境界、左境界、および右境界をシグナリングすることを可能にし得る、別の例では、HTM4.0におけるチェーンコーディングが、以下のステップを実施することによってパーティションパターンを指定し得る。
1. チェーンが上から開始するのか左から開始するのかをシグナリングするフラグ
そのフラグは、チェーンが上から開始する場合、「0」として設定され、そのフラグは、チェーンが左から開始する場合、「1」として設定される。
2. チェーンの開始点位置
N×N PUについて、log2Nビットが、開始位置を指定するために使用される。
3. 総チェーン要素の数
N×N PUのための総チェーン要素の最大数が2Nに制限される。したがって、log2N+1ビットが、総チェーン要素の数をシグナリングするために使用される。
4. 一連の連結チェーン要素の方向
各チェーン要素は、サンプルと、図7に示されているように、0から7までインデックス付けされた、それの8連結性サンプルのうちの1つとを連結する。
[0095]これらのステップについて、図9に関して以下でより詳細に説明する。
[0096]表1は、チェーンインデックスのチェーンコードワードの導出を提供するルックアップテーブルである。(チェーンの現在要素のための)現在チェーンインデックスの値は、表1ではidxCurによって示される。(チェーンの前の要素のための)前のチェーンインデックスの値は、表1ではidxPreによって示される。したがって、エンコーダにおいて、各チェーン要素について、チェーンインデックスidxCurとチェーンの前のチェーンインデックスidxPreとを仮定すれば、エンコーダは、表1において与えられるtabCodeによって指定されたチェーンコードワードbinCurによって後続のチェーン要素への移動を表し得る。表1で使用され、idxCurによって表される、現在チェーンインデックスの値は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを示す(図7に示された)方向インデックス値である。同様に、表1で使用され、idxPreによって表される、前のチェーンインデックスの値は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを示す(図7に示された)方向インデックス値である。チェーンの各要素は、図7に示されているように、±xおよび/または±y方向において1だけオフセットされ得る。表1で使用され、idxPreによって表される、前のチェーンインデックスの初期値は、チェーンの開始位置である。
[0097]たとえば、一連のチェーンインデックスが図8に示されている。(チェーン中のそれぞれの要素に対応する)一連のチェーンインデックスは「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」である。したがって、図8に示された例示的なチェーンの要素は以下の値、すなわち、「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」を有し得る。これらの値は、一連の矢印を含む、図8に示されている。各矢印は、それの隣に、その特定の矢印のための図7の方向値を示す、関連する番号を有する。同様に、図8に示された例示的なチェーンの一連の遅延した要素は以下の値、すなわち、「3」、「3」、「3」、「3」、「7」、「1」、「1」、「1」を有し得る。図8に示された例示的なチェーンの一連の遅延した要素における最初の「3」はチェーンの開始位置によって与えられ、これは、上の、左から3ピクセルのところ、たとえば、位置「3」にある。したがって、図8の例では、表1からのチェーンコードワード値は、以下の表2において要約されるように「0」、「0」、「0」、「1」、「1」、「0」、「0」、「0」である。
[0098]各チェーンコードワードbinCurは、表3を使用して2進数字のシーケンスとして2値化され得る。各チェーンコードワードが2値化された後、各2進数字は、エントロピーコーディングエンジンを使用して符号化され得る。図8の例のための表1および表3からの値が、以下の表4において要約されている。
[0099]デコーダにおいて、パースされたチェーンコードワードbinCurとそれの前のチェーンインデックスidxPreとを仮定すれば、現在チェーンのチェーンインデックスは、表5に示すテーブルtabIndexを使用して導出される。上記で説明したように、上の、左から3ピクセルのところ、たとえば、位置「3」にある、チェーンの開始位置。idxPre値は、チェーンの開始位置から導出される。この例では、チェーンの第1の要素は上にある。下境界、左境界、右境界など、他の位置も可能である。したがって、図8に示された例では、一連の遅延した要素、idxPreの第1の値は「3」である。
[0100]表6に示されているように、「表5からの」行では、受信機において受信されるチェーンインデックスのための値は「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」であり、これは、送信機からの一連のチェーンインデックス値「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」に一致する。
[0101]様々な例では、idxPreは、チェーンが上から開始するとき、3として初期化され、チェーンが左から開始するとき、1として初期化される。他の値が、以下で説明するように、下または右から開始するチェーンのために使用され得る。
[0102]図8に、パーティションパターンを含むおよび例示的な深度PUを示す。図8に示されているように、一連のチェーンインデックスは「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」である。例示的な連続(「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」)は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることを与える。最後の要素を除く要素(たとえば、「3」、「3」、「3」、「7」、「1」、「1」、「1」)の位置の各々が予測ユニット内にある。最後の要素(最終の「1」)の位置は、図8に示されているように、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にある。このようにして、本明細書で説明するいくつかの例は、チェーンの総数を7としてシグナリングするために4ビット「0111」をコーディングしない。そうではなく、受信機は、それが、チェーンの総数を導出することによって、いつチェーンのすべてを処理したかを判断し得る。
[0103]たとえば、エンコーダは、パーティションパターンを識別することと、ビットストリームにおいて以下の情報を符号化することとによって、図8に示された例をチェーンコーディングし得る。
1. 1ビット「0」が、チェーンが上境界から開始することをシグナリングするために符号化される
2. 3ビット「011」が、上境界における開始位置「3」をシグナリングするために符号化される
3. 一連の連結チェーンインデックス「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」がビットストリームにおいて符号化される。上記で説明したように、エンコーダは、表1におけるルックアップテーブルを使用して各チェーンインデックスをコードワードに変換し得る。最後の「1」が、デコーダがパースし得る追加のチェーンを与える。最後の「1」は、PUの境界外の座標に対応する。これは、最後から2番目の要素がチェーンの最後の要素であることを示すために使用され得る。
[0104]したがって、受信機(たとえば、図1の復号ユニット16)において、最初の「0」は、チェーンが上境界から開始することを示すことになる。次の3ビット「011」は、上境界における開始位置「3」をシグナリングするために符号化される。この「3」は、上記で説明したように、表1で使用され、idxPreによって表される、前のチェーンインデックスのための第1の値を与え得る。
[0105]図8に関して説明した例は、概して、N×N PUのための総チェーン数のシグナリングを必要としないことになる。これは、コーディングおよび送信される必要があるビット数を減少させ得る。たとえば、図8の例は、この例では7である、チェーン要素の総数のためのデータをコーディングおよびシグナリングする必要がないであろう。いくつかの例では、N×N PUのための総チェーンの最大数は2Nであるように制限され得る。したがって、log2N+1ビットが、総チェーンの数をシグナリングするために使用され得、この例における信号データはその場合、たとえば、4ビットであり得る。第8のチェーン要素は、PU内になく、チェーンの総数をシグナリングする例においてシグナリングされないであろう。
[0106]チェーンコーディングを使用する図8に示された例のための復号プロセスは、概して符号化プロセスの逆であり得る。たとえば、チェーンコーディングを使用してN×N PUを復号するために、以下のステップが適用される。
− ステップ1:1ビットフラグstartをパースする、
− ステップ2:開始位置posをパースする、
− ステップ3:チェーンの要素間の方向を表す2値化値をパースする。これは、PU外の要素に達するまで繰り返され得る、
− ステップ4:N×Nバイナリブロックであるパーティションパターンpatternを再構成する、
− ステップ5:patternを使用してPUを復号する。
[0107]一例では、patternは、チェーンの開始位置をシグナリングするフラグの値を判断して、作成され得る。パースされ得る1つの追加のチェーン要素と、PUの境界外の座標に対応するチェーン要素とを含む、一連の連結チェーンの方向。各チェーン要素は、サンプル(すなわち、ピクセル)と、図7に示されているように、0から7までインデックス付けされた、それの8連結性サンプルのうちの1つとを連結し得る。N×Nバイナリブロックであり得る、パーティションpatternが再構成されるとき、値は、予測ユニットを反転するためにスワップされ得る。予測ユニットを上から下にに反転することが、上開始を下開始とは区別するために使用され得る。これについて以下でより詳細に説明する。
[0108]図9に、パーティションパターンを含む例示的な深度PUを示す。図9に示されているように、一連のチェーンインデックスは「3」、「3」、「3」、「7」、「1」、「1」、「1」である。例示的な連続(「3」、「3」、「3」、「7」、「1」、「1」、「1」)は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を識別するために使用される方向を表すデータをコーディングすることを与える。それらの要素(たとえば、「3」、「3」、「3」、「7」、「1」、「1」、「1」)の位置の各々が予測ユニット内にある。この例では、PU外にある位置が、図9に示されているように、最後から2番目の要素がチェーンの最後の要素であることを示すために使用されない。そうではなく、エンコーダは、チェーンの総数をコーディングする。一例では、チェーンの総数が0よりも大きいので、チェーンの数ではなくチェーンの数−1が2値化され、ビットストリーム中に符号化され得る。たとえば、図9に示されているように、4ビット「0110」が、チェーンの総数を7としてシグナリングするためにコーディングされ得る。他の例は、「0111」または他の2進値を2値化し、ビットストリーム中に符号化し得る。これは、チェーン要素の数を含まないビットストリームのシグナリングを提供することなしに、上境界、下境界、左境界、および右境界をシグナリングすることを可能にする、例とともに使用され得る。
[0109]たとえば、エンコーダは、パーティションパターンを識別し、ビットストリームにおいて以下の情報を符号化し得る。
1. 1ビット「0」が、チェーンが上境界から開始することをシグナリングするために符号化される
2. 3ビット「011」が、上境界における開始位置「3」をシグナリングするために符号化される
3. 4ビット「0110」が、チェーンの総数を7としてシグナリングするために符号化される
4. 一連の連結チェーンインデックス「3、3、3、7、1、1、1」が符号化され、各チェーンインデックスが、表1におけるルックアップテーブルを使用してコードワードに変換される。
[0110]図9の例は、以下で説明するように、上境界、下境界、左境界、または右境界と交差するパーティション境界を含むが、チェーンコーディング中に含まれるチェーンの総数をコーディングする、パーティションパターンを提供する態様を含み得る。さらに、いくつかの例では、これは、図1の符号化ユニット14および/または復号ユニット16のいずれかまたは両方などのユニットにおいて使用され得る。
[0111]チェーンコーディングを使用する図11に示す例のための復号プロセスは、概して符号化プロセスの逆であり得る。いくつかの例では、これは、図1の復号ユニット16などのユニットにおいて使用され得る。たとえば、チェーンコーディングを使用してN×N PUを復号するために、以下のステップが適用される。
− ステップ1:1ビットフラグstartをパースする、
− ステップ2:開始位置posをパースする、
− ステップ3:チェーン要素の数、numをパースする、
− ステップ4:num個のエッジコードワードをパースする、
− ステップ5:N×Nバイナリブロックであるパーティションパターンpatternを再構成する、
− ステップ6:patternを使用してPUを復号する。
[0112]図10は、本開示で説明する1つまたは複数の例による、例示的な方法を示すフローチャートである。この例では、ビデオエンコーダ20は、図10の方法のステップ430〜442を実施し得、ビデオデコーダ30は、図10の方法のステップ444〜454を実施し得る。説明のために単一の方法として示されているが、符号化プロセスおよび復号プロセスが必ずしも連続的に実施されるとは限らないことを理解されたい。たとえば、ネットワークを介した転送、あるいはDVD、Blu−ray(登録商標)、または他のコンピュータ可読媒体など、コンピュータ可読媒体上へのブロードキャストまたは記録など、様々な介在するステップがある場合、著しい量の時間が符号化と復号との間で経過し得る。一例では、イントラ予測ユニット46は、PUのための輪郭/チェーンコーディングモードを選択する(430)。輪郭/チェーンコーディングが選択されたとき、ビデオエンコーダ20は、チェーン中の要素の数を表すデータをコーディングまたは送信することなしに、ブロックをチェーンコーディングし得る。
[0113]また、パーティションユニット48は、チェーンコーディングモードを使用してPUを区分する(432)。たとえば、イントラ予測ユニット46は、たとえば、図5に、示されているように、PUを2つの別個の領域に分けるためにチェーンを使用し得る。これらの別個の領域は、チェーンの開始位置をシグナリングするフラグの値を判断することと、パースされ得る1つの追加のチェーン要素と、PUの境界外の座標に対応するチェーン要素とを含む、一連の連結チェーンの方向を判断することとによって生成され得る。各チェーン要素は、サンプル(すなわち、ピクセル)と、図7に示されているように、0から7までインデックス付けされた、それの8連結性サンプルのうちの1つとを連結し得る。
[0114]ビデオエンコーダ20のイントラ予測ユニット46は、チェーン要素を表すデータを符号化する(434)。このコーディングは、たとえば、チェーン要素を表すデータを2値化することによって、実施され得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。それらの様々なモードは図4に示されている。
[0115]モード選択ユニット40は、PUのパーティションのためのイントラモードを選択する(436)。たとえば、モード選択ユニット40は、たとえば、誤差結果に基づいてコーディングモード、すなわち、イントラまたはインターのうちの1つを選択し得、残差ブロックデータを生成するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器50に与え、参照ピクチャ内で使用するための符号化されたブロックを再構成するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器62に与える。
[0116]加算器50は、図2に示されているように、PUのための残差ブロックを計算する(438)。ビデオエンコーダ20は、残差ブロックを変換し、量子化する(440)。たとえば、変換処理ユニット52は、変換係数を形成するために、残差ブロックのピクセル値に(DCTなどの)変換を適用し得、量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化し得る。量子化プロセスは、係数の一部または全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は、次いで、量子化された変換係数を含む行列の走査を実施し得る。代替的に、エントロピー符号化ユニット56が走査を実施し得る。
[0117]エンコーダ20は、残差ブロックの量子化された変換係数をCABAC符号化する(442)。たとえば、エントロピーコーディングユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピーコーディング技法を実施し得る。コンテキストベースエントロピーコーディングの場合、コンテキストは隣接ブロックに基づき得る。
[0118]ビデオデコーダ30は、残差ブロックの量子化された変換係数をCABAC復号する(444)。このプロセスは、たとえば、エントロピー復号ユニット70によって、実施され得る。したがって、エントロピー復号ユニット70は、残差ブロックの量子化された変換係数を生成するためにビットストリームをエントロピー復号し得る。
[0119]逆量子化ユニット58および逆変換ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば、参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構成する(446)。
[0120]加算器80は、図3に示されているように残差ブロックをPU中に追加して戻し(448)、ビデオデコーダ30は、PUを区分するためのイントラモードを判断する(450)。
[0121]ビデオデコーダ30は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号する(452)。この場合も、最後の要素を除く要素の位置の各々が予測ユニット内にあり得、最後の要素の位置は、最後の要素がチェーンの最後の要素であることを示すために予測ユニット外にあり得る。したがって、ビデオデコーダ30は、PUを区分し、元のブロックを再生するためにチェーンコーディングモードを使用する(454)。
[0122]図11の例では、デコーダ、たとえば、図1の復号ユニット16または図3のビデオデコーダ30が、チェーンが開始するどのエッジを判断するために1ビットフラグstartをパースする(475)。エンコーダ、たとえば、図1の符号化ユニット14または図3のエンコーダ30が、上記で説明したように、ビデオデータを符号化するために逆のプロセスを実施し得る。デコーダは、チェーンがエッジ上のどこで開始するかを判断するために、開始位置posをもパースする(477)。デコーダは、チェーン要素の数、numをもパースし得る。これは随意である。本明細書で説明するように、一部の例は、チェーン要素の数、および/または各チェーン要素がいつ処理されたかを導出する。デコーダは、本明細書で説明するように、シグナリングされた数に基づいて、またはそのようなシグナリングされた数なしに、上記数のチェーン要素コードワードをパースする(481)。チェーン要素から、デコーダは、パーティションパターを再構成し(483)、パターンを使用してPUを復号する(485)。本明細書で前に説明したように、パースされ得る1つの追加のチェーン要素と、PUの境界外の座標に対応するチェーン要素とを含む、一連の連結チェーンの方向。各チェーン要素は、サンプル(すなわち、ピクセル)と、図7に示されているように、0から7までインデックス付けされた、それの8連結性サンプルのうちの1つとを連結し得る。N×Nバイナリブロックであり得る、パーティションpatternが再構成されるとき、値は、予測ユニットを反転するためにスワップされ得る。予測ユニットを上から下にに反転することが、上開始を下開始とは区別するために使用され得る。これについて以下でより詳細に説明する。
[0123]本明細書で説明するいくつかの例は、チェーン中の要素の数をシグナリングするのではなく、チェーン中の要素の数を導出することを提供する。チェーン中の要素の総数をシグナリングすることは、N×N PUのためにlog2N+1ビットを使用することになる。要素の数はビットストリームから除去され得る。1つの追加の要素がパースされ得、PUの境界外の座標に対応する要素がパースされ得る。各現在要素の終了座標(x,y)は、各チェーンコードのパーシング中およびその後に追跡され得る。要素の座標が、チェーンコードをパースした後に、PUの境界の外にあり、チェーンの現在のパースされた数が1よりも大きいとき、チェーンコードのパーシングは終了する。
[0124]いくつかの例では、パーティションパターンは、チェーンコーディング中に含まれる上境界または左境界のいずれかであると交差するにすぎないことがある。他の例は、上境界、下境界、右境界、または左境界と交差することがあるパーティションパターンを提供する。2ビットが、チェーンが上から開始するのか(たとえば、00)、左から開始するのか(たとえば、01)、下から開始するのか(たとえば、10)、右から開始するのか(たとえば、11)をシグナリングするために使用され得る。別の代替では、チェーンが下から開始するとき、開始位置は、チェーンが上から開始するのと同様の方法で初期化され得、復号されたパーティションパターンは上および下に反転される。チェーンが右から開始するとき、開始位置は、チェーンが左から開始するのと同様の方法で初期化され、復号されたパーティションパターンは右および左に反転される。
[0125]代替的に、1ビットが、左から開始することを示すために使用され得、2ビットが、上または下のいずれかから開始することを示すために使用され得る。たとえば、0は左を示しており、10は上を示しており、11は下を示している。場合によっては、下から開始するとき、チェーンは、PUの右境界において終了しなければならない。
[0126]一例では、最後のチェーン位置とチェーンの総数との導出は、最後のチェーンが識別されるまで、パースされたチェーンコードワードの数にも基づいて導出され得る。一例では、最後の要素を除く要素の位置は予測ユニット内にあり得、最後の要素の位置は予測ユニット外にある。予測ユニット外に最後の要素の位置を有することは、最後の要素がチェーンの最後の要素であることを示し得る。したがって、デコーダは、各チェーンコードワードの終了座標を追跡し、区分プロセスを実施し得、そのプロセスは、追加のチェーンコードワードが境界外の座標に対応すると、終了される。たとえば、変数が、チェーンの総数を記憶するために0に初期化され得る。いくつかの例では、区分プロセスは、チェーンコードワードの復号中に実施されないことがある。たとえば、区分プロセスは、チェーンコードワードのすべてが復号された後、実施され得る。チェーン上のロケーションを示す、前のインデックスが、チェーンが上境界または下境界のいずれかから開始する場合、たとえば、3に初期化され得る。チェーンが上境界または下境界のいずれかから開始しない場合、前のインデックスは1に初期化され得る。
[0127]一例は、チェーンコードワードのためのインデックスを判断するためにチェーンコードワードをパースし得る。パースされたチェーンコードワードに基づいて、デコーダは、チェーンの位置が境界上にあるかどうかを判断し得る。これは、デコーダが、最後から2番目の要素がチェーンの最後の要素であるかどうかを判断することを可能にする。チェーンの総数も、最後から2番目の要素に基づいてデコーダにおいて判断され得る。
[0128]一例では、チェーンコードワードをパースすることは、チェーンコードワードに基づいてxおよびyピクセル方向移動を判断するためにルックアップテーブルを使用することをさらに備える。さらに、次のチェーンの位置が境界上にあるかどうかを判断するために検査することが、ルックアップテーブルからのxおよびyピクセル方向移動に基づいてx位置およびy位置を設定することをさらに備える。次のチェーンの位置は、x位置およびy位置がPU内にないとき、境界上にある。
[0129]図12は、チェーンコーディングにおける最後のチェーン位置の導出を示すフローチャートである。一例では、チェーンがそれから開始する境界をシグナリングするフラグstartと、開始位置(posx,posy)とを仮定すれば、チェーンの総数numは以下のステップによって導出される。
− ステップ1において、コーダ、概してデコーダが、numを0として初期化し、idxPreをも初期化する(490)。チェーンが上境界または下境界から開始する場合、idxPreを3として設定し、他の場合、idxPreを1として設定する、
− ステップ2において、コーダは、binCurとしての1つのチェーンコードワードをパースし、idxCurをtabIdx[idxPre][binCur]として設定する(492)、
− ステップ3において、コーダは、posxをposx+tabDeltaX[idxCur]として、およびposyをposy+tabDeltaY[idxCur]として設定し、numをnum+1として設定し、idxPreをidxCurとして設定し得る。「0≦posx<Nおよび0≦posy<N」または「num≦1である場合、ステップ2(492)がコーダによって繰り返され得る、
− ステップ4において、コーダは、最後のチェーン位置を識別し、numをnum−1として設定し得る。このステップは随意である。
[0130]上記のステップ3において、tabDeltaXおよびtabDeltaYは、表7に示す2つのあらかじめ定義されたテーブルである。表7におけるtabDeltaXおよびtabDeltaYの値は、現在インデックス値に基づいてxおよびy位置の変化をマッピングすることによってチェーンの要素に沿ったPUにおける移動を提供する。言い換えれば、表7は、図7に関して説明したインデックス0〜7に基づいてxおよびyの変化を提供する。たとえば、図7に示されているように、左である「0」のインデックスは、x方向における−1およびy方向における0の移動を含むであろう。これらは、表7によって与えられるのと同じ値である。
[0131]同様に、右への移動として、図7に示されている、「1」のインデックスについて、x方向における1およびy方向における0の移動を含むであろう。上への移動として、図7に示されている、「2」のインデックスについて、x方向における0およびy方向における1の移動を含むであろう。下への移動として、図7に示されている、「3」のインデックスについて、x方向における0およびy方向における−1の移動を含むであろう。方向「4」、「5」、「6」、および「7」など、角度方向も表7において提供され、±1のxおよびy値が、インデックスによって指定された角度方向に依存する。
チェーンコーディングにおける最後のチェーン位置の導出のためのフローチャートが図11に示されている。いくつかの例では、これは、図1の符号化ユニット14および/または復号ユニット16のいずれかまたは両方などのユニットにおいて使用され得る。
[0132]いくつかの例は、PUの下境界または右境界から開始するチェーンコーディングをサポートし得る。現在PUがチェーンコーディングを使用して符号化されるとき、2ビットが、2ビットフラグstartを与えるためにパースされ得る。フラグstartは、チェーンがそれから開始する境界(上、左、下または右)を識別する。
[0133]N×Nバイナリブロックであり得る、パーティションパターンpatternが再構成されるとき、値は、予測ユニットを反転するためにスワップされ得る。予測ユニットを上から下に反転することが、上開始を下開始とは区別するために使用され得る。これは、0から
までの各iおよび0からN−1までの各jについて、値(i,j)を値(N−1−i,j)とスワップすることを含み得る。同様に、予測ユニットを右から左に反転することが、左開始または右開始とは区別するために使用され得る。これは、0からN−1までの各iおよび0から
までの各jについて、値(i,j)を値(N−1−i,j)とスワップすることを含み得る。
[0134]したがって、以下が適用され得、ただし、「=」はスワップを示す。
− チェーンが下境界から開始する場合、0から
までの各iおよび0からN−1までの各jについて、pattern(i,j)=pattern(N−1−i,j)であり、
− チェーンが右境界から開始する場合、0からN−1までの各iおよび0から
までの各jについて、pattern(i,j)=pattern(i,N−1−j)である。
[0135]スワップ動作を実施するために、チェーンが下境界から開始する場合、以下が実施され得る。
[0136]代替的に、チェーンが右境界から開始する場合、以下がスワップ動作を実施するために実施され得る。
[0137]図13は、本開示で説明する1つまたは複数の例による、例示的な方法を示すフローチャートである。符号化ユニット14など、エンコーダ、または復号ユニット16など、デコーダが、図13の方法を使用してチェーンの要素の位置を表すデータをコーディングし得る。チェーンの要素は、ビデオデータの予測ユニットを区分し得る。さらに、最後の要素を除く要素の位置の各々が予測ユニット内にあり得る。最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にあり得る(500)。
[0138]エンコーダまたはデコーダは、チェーンに基づく予測ユニットのパーティションをコーディングする(502)。たとえば、ルックアップテーブルが、チェーンインデックスのチェーンコードワードの導出を提供し得る。現在チェーンインデックスおよび前のチェーンインデックスの値が、チェーンコードワードを判断するためにルックアップテーブルにおいてルックアップを実施するために使用され得る。前のチェーンインデックスの値は、1だけオフセットされた、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを示す方向インデックス値である。使用される、前のチェーンインデックスの初期値はチェーンの開始位置である。たとえば、上記で説明したように、図8に示されているような一連のチェーンインデックスは「3」、「3」、「3」、「7」、「1」、「1」、「1」、「1」である。各チェーンコードワードは、2進数字のシーケンスとして2値化され得る。各チェーンコードワードが2値化された後、各2進数字は、エントロピーコーディングエンジンを使用して符号化され得る。いくつかの例では、これは、図1の符号化ユニット14および/または復号ユニット16のいずれかまたは両方などのユニットにおいて使用され得る。図13の方法は、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く要素の位置の各々が予測ユニット内にあり、ここにおいて、最後の要素の位置は、最後から2番目の要素がチェーンの最後の要素であることを示すために予測ユニット外にある、チェーンに基づく予測ユニットのパーティションをコーディングすることとを含む、方法の一例を表す。
[0139]デコーダにおいて、パースされたチェーンコードワードおよびそれの前のチェーンインデックスが、現在チェーンのチェーンインデックスを導出するために使用され得る。上記で説明したように、チェーンの開始位置は、前のチェーンインデックスのための初期値を与え得る。
[0140]1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、コンピュータ可読媒体上の1つまたは複数の命令またはコード上に記憶されるか、あるいはそのような命令またはコードとして送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応する、コンピュータ可読記憶媒体を含み得るか、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[0141]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備え得る。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu−rayディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれるべきである。
[0142]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明した技法の実装に好適な他の構造のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に与えられるか、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
[0143]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実施するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わされるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0144]様々な例について説明した。これらおよび他の例は、以下の特許請求の範囲によって定義された本発明の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットのパーティションをコーディングすることとを備える、方法。
[C2] 前記予測ユニットをコーディングすることが、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化することと、
前記チェーンに基づく前記予測ユニットの前記パーティションを符号化することとを備える、C1に記載の方法。
[C3] 前記予測ユニットをコーディングすることが、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号することと、
前記チェーンに基づく前記予測ユニットの前記パーティションを復号することとを備える、C1に記載の方法。
[C4] 各チェーンコードワードの終了座標を追跡することをさらに備え、前記追跡することは、追加のチェーンコードワードが境界外の座標に対応すると、終了される、C3に記載の方法。
[C5] 各チェーンコードワードの前記終了座標を追跡することは、
チェーンの総数を記憶するための変数を0に初期化することと、
前記チェーンが上境界または下境界のいずれかから開始する場合、前のインデックスを3に初期化することと、チェーンが上境界または下境界のいずれかから開始しない場合、前記前のインデックスを1に初期化することと、前記前のインデックスが、前記チェーン上のロケーションを示す値を備える、
前記チェーンコードワードのためのインデックスを判断するために前記チェーンコードワードをパースすることと、
前記最後から2番目の要素が前記チェーンの最後の要素であると判断するために、前記チェーンの位置が境界上にあるかどうかを判断することと、
前記最後から2番目の要素に基づいてチェーンの前記総数を判断することとを備える、C4に記載の方法。
[C6] 前記チェーンコードワードをパースすることが、前記チェーンコードワードに基づいてxおよびyピクセル方向移動を判断するためにルックアップテーブルを使用することをさらに備え、
次のチェーンの位置が前記境界上にあるかどうかを判断するために検査することが、前記ルックアップテーブルからの前記xおよびyピクセル方向移動に基づいてx位置およびy位置を設定することをさらに備え、ここにおいて、前記次のチェーンの前記位置は、前記x位置および前記y位置が前記予測ユニットの境界内にないとき、前記境界上にある、
チェーンの前記総数を判断することは、前記次のチェーンの前記位置が前記境界上にあるという判断が行われたとき、チェーンの前記総数を記憶するための前記変数から1を減算することをさらに備える、C5に記載の方法。
[C7] チェーンステーティング位置をコーディングすることは、
前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングすることと、
前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータをコーディングすることと、
前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータをコーディングすることとを備える、C1に記載の方法。
[C8] 前記チェーンステーティング位置をコーディングすることは、
前記要素の前記位置を表す前記データに基づいて、前記チェーンが前記左エッジまたは前記上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成することと、
前記チェーンが前記右エッジ上で開始するとき、前記パーティションマップを水平方向に反転することと、
前記チェーンが前記下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転することとを備える、C1に記載の方法。
[C9] 前記チェーンステーティング位置をコーディングすることは、
前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングすることと、
上開始を下開始とは区別するために、前記要素の前記位置を表すパーティションマップを上から下に反転することと、左開始または右開始とは区別するために前記パーティションマップを右から左に反転することとを備える、C1に記載の方法。
[C10] 上開始を下開始とは区別するために前記予測ユニットを上から下に反転することが、0から までの各iおよび0からN−1までの各jについて、値(i,j)を値(N−1−i,j)とスワップすることを備え、左開始または右開始とは区別するために前記予測ユニットを右から左に反転することが、0からN−1までの各iおよび0から までの各jについて、値(i,j)を値(N−1−i,j)とスワップすることを備える、C9に記載の方法。
[C11] チェーン開始位置をコーディングすることをさらに備え、前記チェーンが、前記予測ユニットの上境界において開始するのか、前記予測ユニットの左境界において開始するのか、前記予測ユニットの下境界において開始するのか、前記予測ユニットの右境界において開始するのかを示す、2ビットフラグをコーディングすることを備える、C1に記載の方法。
[C12] 「00」の2進値が上エッジを示し、「01」の2進値が左エッジを示し、「10」の2進値が下エッジを示し、「11」の2進値が右エッジを示す、C11に記載の方法。
[C13] 1ビットが、左境界から開始することを示し、2ビットが、上境界または下境界のいずれかから開始することを示す、C1に記載の方法。
[C14] 下境界から開始するとき、前記方法が、前記予測ユニットの右境界において前記チェーンを終了することをさらに備える、C13に記載の方法。
[C15] ビデオデータをコーディングすることが、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングすることを備える、C1に記載の方法。
[C16] ビデオデータをコーディングするためのビデオコーダであって、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットのパーティションをコーディングすることとを行うように構成された1つまたは複数のプロセッサを備える、ビデオコーダ。
[C17] 前記ビデオコーダが、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化し、
前記チェーンに基づく前記予測ユニットの前記パーティションを符号化する、C16に記載のビデオコーダ。
[C18] 前記ビデオコーダが、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号し、
前記チェーンに基づく前記予測ユニットの前記パーティションを復号する、C16に記載のビデオコーダ。
[C19] 前記1つまたは複数のプロセッサが、各チェーンコードワードの終了座標を追跡するように構成され、前記追跡することは、追加のチェーンコードワードが境界外の座標に対応すると、終了される、C18に記載のビデオコーダ。
[C20] 前記1つまたは複数のプロセッサが、各チェーンコードワードの前記終了座標を追跡するように構成され、ここにおいて、前記追跡することは、
チェーンの総数を記憶するための変数を0に初期化することと、
前記チェーンが上境界または下境界のいずれかから開始する場合、前のインデックスを3に初期化することと、チェーンが上境界または下境界のいずれかから開始しない場合、前記前のインデックスを1に初期化することと、前記前のインデックスが、前記チェーン上のロケーションを示す値を備える、
前記チェーンコードワードのためのインデックスを判断するために前記チェーンコードワードをパースすることと、
前記最後から2番目の要素が前記チェーンの最後の要素であると判断するために、前記チェーンの位置が境界上にあるかどうかを判断することと、
前記最後から2番目の要素に基づいてチェーンの前記総数を判断することとを備える、C19に記載のビデオコーダ。
[C21] 前記チェーンコードワードをパースすることが、前記チェーンコードワードに基づいてxおよびyピクセル方向移動を判断するためにルックアップテーブルを使用することをさらに備え、
次のチェーンの位置が前記境界上にあるかどうかを判断するために検査することが、前記ルックアップテーブルからの前記xおよびyピクセル方向移動に基づいてx位置およびy位置を設定することをさらに備え、ここにおいて、前記次のチェーンの前記位置は、前記x位置および前記y位置が前記予測ユニットの境界内にないとき、前記境界上にある、
チェーンの前記総数を判断することは、前記次のチェーンの前記位置が前記境界上にあるという判断が行われたとき、チェーンの前記総数を記憶するための前記変数から1を減算することをさらに備える、C20に記載のビデオコーダ。
[C22] 前記1つまたは複数のプロセッサは、
前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングすることと、
前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータをコーディングすることと、
前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータをコーディングすることとを行うように構成された、C16に記載のビデオコーダ。
[C23] チェーンステーティング位置をコーディングすることは、
前記要素の前記位置を表す前記データに基づいて、前記チェーンが前記左エッジまたは前記上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成することと、
前記チェーンが前記右エッジ上で開始するとき、前記パーティションマップを水平方向に反転することと、
前記チェーンが前記下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転することとを備える、C16に記載のビデオコーダ。
[C24] 前記チェーンステーティング位置をコーディングすることは、
前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングすることと、
上開始を下開始とは区別するために、前記要素の前記位置を表すパーティションマップを上から下に反転することと、左開始または右開始とは区別するために前記パーティションマップを右から左に反転することとを備える、C16に記載のビデオコーダ。
[C25] 上開始を下開始とは区別するために前記予測ユニットを上から下に反転することが、0から までの各iおよび0からN−1までの各jについて、値(i,j)を値(N−1−i,j)とスワップすることを備え、左開始または右開始とは区別するために前記予測ユニットを右から左に反転することが、0からN−1までの各iおよび0から までの各jについて、値(i,j)を値(N−1−i,j)とスワップすることを備える、C24に記載のビデオコーダ。
[C26] チェーン開始位置をコーディングすることをさらに備え、前記チェーンが、前記予測ユニットの上境界において開始するのか、前記予測ユニットの左境界において開始するのか、前記予測ユニットの下境界において開始するのか、前記予測ユニットの右境界において開始するのかを示す、2ビットフラグをコーディングすることを備える、C16に記載のビデオコーダ。
[C27] 「00」の2進値が上エッジを示し、「01」の2進値が左エッジを示し、「10」の2進値が下エッジを示し、「11」の2進値が右エッジを示す、C16に記載のビデオコーダ。
[C28] 1ビットが、左境界から開始することを示し、2ビットが、上境界または下境界のいずれかから開始することを示す、C16に記載のビデオコーダ。
[C29] 下境界から開始するとき、前記予測ユニットの右境界において前記チェーンを終了する、C16に記載のビデオコーダ。
[C30] ビデオデータをコーディングすることが、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングすることを備える、C16に記載のビデオコーダ。
[C31] ビデオデータをコーディングするための装置であって、前記装置は、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングするための手段と、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットのパーティションをコーディングするための手段とを備える、装置。
[C32] ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化するための手段と、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットの前記パーティションを符号化するための手段とを備える、C31に記載の装置。
[C33] ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号するための手段と、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最後の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットの前記パーティションを復号するための手段とを備える、C31に記載の装置。
[C34] 各チェーンコードワードの終了座標を追跡するための手段を備え、前記追跡することは、追加のチェーンコードワードが境界外の座標に対応すると、終了される、C33に記載の装置。
[C35] チェーンの総数を記憶するための変数を0に初期化するための手段と、
前記チェーンが上境界または下境界のいずれかから開始する場合、前のインデックスを3に初期化するための手段と、チェーンが上境界または下境界のいずれかから開始しない場合、前記前のインデックスを1に初期化するための手段と、前記前のインデックスが、前記チェーン上のロケーションを示す値を備える、
前記チェーンコードワードのためのインデックスを判断するために前記チェーンコードワードをパースするための手段と、
前記最後から2番目の要素が前記チェーンの最後の要素であると判断するために、前記チェーンの位置が境界上にあるかどうかを判断するための手段と、
前記最後から2番目の要素に基づいてチェーンの前記総数を判断するための手段とを備える、C34に記載の装置。
[C36] 前記チェーンコードワードをパースするための前記手段が、前記チェーンコードワードに基づいてxおよびyピクセル方向移動を判断するためにルックアップテーブルを使用することをさらに備え、
次のチェーンの位置が前記境界上にあるかどうかを判断するために検査することが、前記ルックアップテーブルからの前記xおよびyピクセル方向移動に基づいてx位置およびy位置を設定するための手段をさらに備え、ここにおいて、前記次のチェーンの前記位置は、前記x位置および前記y位置が前記予測ユニットの境界内にないとき、前記境界上にある、
チェーンの前記総数を判断するための前記手段は、前記次のチェーンの前記位置が前記境界上にあるという判断が行われたとき、チェーンの前記総数を記憶するための前記変数から1を減算することをさらに備える、C35に記載の装置。
[C37] 前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングするための手段と、
前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータをコーディングするための手段と、
前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータをコーディングする手段とを備える、C31に記載の装置。
[C38] 前記要素の前記位置を表す前記データに基づいて、前記チェーンが前記左エッジまたは前記上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成するための手段と、
前記チェーンが前記右エッジ上で開始するとき、前記パーティションマップを水平方向に反転するための手段と、
前記チェーンが前記下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転するための手段とを備える、C31に記載の装置。
[C39] ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングするための手段をさらに備える、C31に記載の装置。
[C40] 実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットのパーティションをコーディングすることとを行わせる、命令を記憶したコンピュータ可読記憶媒体を備えるコンピュータプログラム製品。
[C41] 前記コンピュータ可読記憶媒体は、実行されたとき、前記デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化することと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットの前記パーティションを符号化することとを行わせる、命令をさらに含む、C40に記載のコンピュータプログラム製品。
[C42] 前記コンピュータ可読記憶媒体は、実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号することと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最後の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
前記チェーンに基づく前記予測ユニットの前記パーティションを復号することとを行わせる、命令をさらに含む、C40に記載のコンピュータプログラム製品。
[C43] 前記コンピュータ可読記憶媒体は、実行されたとき、デバイスの1つまたは複数のプロセッサに、各チェーンコードワードの終了座標を追跡することを行わせる、命令をさらに含み、前記追跡することは、追加のチェーンコードワードが境界外の座標に対応すると、終了される、C42に記載のコンピュータプログラム製品。
[C44] 前記コンピュータ可読記憶媒体は、実行されたとき、デバイスの1つまたは複数のプロセッサに、
チェーンの総数を記憶するための変数を0に初期化することと、
前記チェーンが上境界または下境界のいずれかから開始する場合、前のインデックスを3に初期化することと、チェーンが上境界または下境界のいずれかから開始しない場合、前記前のインデックスを1に初期化することと、前記前のインデックスが、前記チェーン上のロケーションを示す値を備える、
前記チェーンコードワードのためのインデックスを判断するために前記チェーンコードワードをパースすることと、
前記最後から2番目の要素が前記チェーンの最後の要素であると判断するために、前記チェーンの位置が境界上にあるかどうかを判断することと、
前記最後から2番目の要素に基づいてチェーンの前記総数を判断することとを行わせる、命令を含む、C43に記載のコンピュータプログラム製品。
[C45] 前記コンピュータ可読記憶媒体は、実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
前記チェーンコードワードに基づいてxおよびyピクセル方向移動を判断するためにをさらに備える前記チェーンコードワードをパースするためにルックアップテーブルを使用することと、
次のチェーンの位置が前記境界上にあるをさらに備えるかどうかを判断するために検査するために、前記ルックアップテーブルからの前記xおよびyピクセル方向移動に基づいてx位置およびy位置を設定することと、ここにおいて、前記次のチェーンの前記位置は、前記x位置および前記y位置が前記予測ユニットの境界内にないとき、前記境界上にある、
チェーンの前記総数を判断するために、前記次のチェーンの前記位置が前記境界上にあるという判断が行われたとき、チェーンの前記総数を記憶するための前記変数から1を減算することとを行わせる、命令をさらに含む、C44に記載のコンピュータプログラム製品。
[C46] 前記コンピュータ可読記憶媒体は、実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングすることと、
前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータをコーディングすることと、
前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータをコーディングすることとを行わせる、命令をさらに含む、C40に記載のコンピュータプログラム製品。
[C47] 前記コンピュータ可読記憶媒体は、実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
前記要素の前記位置を表す前記データに基づいて、前記チェーンが前記左エッジまたは前記上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成することと、
前記チェーンが前記右エッジ上で開始するとき、前記パーティションマップを水平方向に反転することと、
前記チェーンが前記下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転することとを行わせる、命令をさらに含む、C40に記載のコンピュータプログラム製品。
[C48] 前記コンピュータ可読記憶媒体は、実行されたとき、デバイスの1つまたは複数のプロセッサに、ビデオデータをコーディングするために、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングすることを行わせる、命令をさらに含む、C40に記載のコンピュータプログラム製品。

Claims (50)

  1. ビデオデータをコーディングする方法であって、前記方法は、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションをコーディングすることとを備える、方法。
  2. 前記予測ユニットをコーディングすることが、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化することと、
    前記チェーンに基づく前記予測ユニットの前記パーティションを符号化することとを備える、請求項1に記載の方法。
  3. チェーン開始位置をコーディングすることをさらに備え、前記チェーンが、前記予測ユニットの上境界において開始するのか、前記予測ユニットの左境界において開始するのか、前記予測ユニットの下境界において開始するのか、前記予測ユニットの右境界において開始するのかを示す、2ビットフラグをコーディングすることを備える、請求項1に記載の方法。
  4. 前記2ビットフラグが、2進値「00」の場合、境界を示し、前記2ビットフラグが、2進値「01」の場合、境界を示し、前記2ビットフラグが、2進値「10」の場合、境界を示し、前記2ビットフラグが、2進値「11」の場合、境界を示す、請求項に記載の方法。
  5. 前記2ビットフラグの第1ビットが、左境界から開始することを示し、前記2ビットフラグの第2ビットが、上境界または下境界のいずれかから開始することを示す、請求項に記載の方法。
  6. 下境界から開始するとき、前記方法が、前記予測ユニットの右境界において前記チェーンを終了することをさらに備える、請求項に記載の方法。
  7. ビデオデータをコーディングすることが、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングすることを備える、請求項1に記載の方法。
  8. ビデオデータをコーディングするためのビデオコーダであって、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションをコーディングすることとを行うように構成された1つまたは複数のプロセッサを備える、ビデオコーダ。
  9. 前記ビデオコーダが、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化し、
    前記チェーンに基づく前記予測ユニットの前記パーティションを符号化する、請求項に記載のビデオコーダ。
  10. 前記1つまたは複数のプロセッサは、
    前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングすることと、
    前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータをコーディングすることと、
    前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータをコーディングすることとを行うように構成された、請求項に記載のビデオコーダ。
  11. チェーン開始位置をコーディングすることをさらに備え、前記チェーンが、前記予測ユニットの上境界において開始するのか、前記予測ユニットの左境界において開始するのか、前記予測ユニットの下境界において開始するのか、前記予測ユニットの右境界において開始するのかを示す、2ビットフラグをコーディングすることを備える、請求項に記載のビデオコーダ。
  12. 前記2ビットフラグが、2進値「00」の場合、境界を示し、前記2ビットフラグが、2進値「01」の場合、境界を示し、前記2ビットフラグが、2進値「10」の場合、境界を示し、前記2ビットフラグが、2進値「11」の場合、境界を示す、請求項11に記載のビデオコーダ。
  13. 前記2ビットフラグの第1ビットが、左境界から開始することを示し、前記2ビットフラグの第2ビットが、上境界または下境界のいずれかから開始することを示す、請求項11に記載のビデオコーダ。
  14. 下境界から開始するとき、前記予測ユニットの右境界において前記チェーンを終了する、請求項に記載のビデオコーダ。
  15. ビデオデータをコーディングすることが、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングすることを備える、請求項に記載のビデオコーダ。
  16. ビデオデータをコーディングするための装置であって、前記装置は、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングするための手段と、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションをコーディングするための手段とを備える、装置。
  17. ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化するための手段と、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットの前記パーティションを符号化するための手段とを備える、請求項16に記載の装置。
  18. 前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングするための手段と、
    前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータをコーディングするための手段と、
    前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータをコーディングするための手段とを備える、請求項16に記載の装置。
  19. 前記要素の前記位置を表す前記データに基づいて、前記チェーンが左エッジまたは上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成するための手段と、
    前記チェーンが右エッジ上で開始するとき、前記パーティションマップを水平方向に反転するための手段と、
    前記チェーンが下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転するための手段とを備える、請求項16に記載の装置。
  20. ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングするための手段をさらに備える、請求項16に記載の装置。
  21. 実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータをコーディングすることと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションをコーディングすることとを行わせる、命令を備えるコンピュータプログラム。
  22. 行されたとき、前記デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを符号化することと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットの前記パーティションを符号化することとを行わせる、命令をさらに含む、請求項21に記載のコンピュータプログラム。
  23. 行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータをコーディングすることと、
    前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータをコーディングすることと、
    前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータをコーディングすることとを行わせる、命令をさらに含む、請求項21に記載のコンピュータプログラム。
  24. 実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    前記要素の前記位置を表す前記データに基づいて、前記チェーンが左エッジまたは上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成することと、
    前記チェーンが右エッジ上で開始するとき、前記パーティションマップを水平方向に反転することと、
    前記チェーンが下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転することとを行わせる、命令をさらに含む、請求項21に記載のコンピュータプログラム。
  25. 行されたとき、デバイスの1つまたは複数のプロセッサに、ビデオデータをコーディングするために、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値をコーディングすることなしに、コーディングすることを行わせる、命令をさらに含む、請求項21に記載のコンピュータプログラム。
  26. ビデオデータを復号する方法であって、前記方法は、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号することと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションを復号することとを備える、方法。
  27. 前記予測ユニットを復号することが、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号することと、
    前記チェーンに基づく前記予測ユニットの前記パーティションを復号することとを備える、請求項26に記載の方法。
  28. チェーン開始位置を復号することをさらに備え、前記チェーンが、前記予測ユニットの上境界において開始するのか、前記予測ユニットの左境界において開始するのか、前記予測ユニットの下境界において開始するのか、前記予測ユニットの右境界において開始するのかを示す、2ビットフラグを復号することを備える、請求項26に記載の方法。
  29. 前記2ビットフラグが、2進値「00」の場合、上境界を示し、前記2ビットフラグが、2進値「01」の場合、左境界を示し、前記2ビットフラグが、2進値「10」の場合、下境界を示し、前記2ビットフラグが、2進値「11」の場合、右境界を示す、請求項28に記載の方法。
  30. 前記2ビットフラグの第1ビットが、左境界から開始することを示し、前記2ビットフラグの第2ビットが、上境界または下境界のいずれかから開始することを示す、請求項28に記載の方法。
  31. 下境界から開始するとき、前記方法が、前記予測ユニットの右境界において前記チェーンを終了することをさらに備える、請求項30に記載の方法。
  32. ビデオデータを復号することが、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値を復号することなしに、復号することを備える、請求項26に記載の方法。
  33. ビデオデータを復号するためのビデオデコーダあって、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号することと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションを復号することとを行うように構成された1つまたは複数のプロセッサを備える、ビデオデコーダ。
  34. 前記ビデオデコーダが、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号し、
    前記チェーンに基づく前記予測ユニットの前記パーティションを復号する、請求項33に記載のビデオデコーダ。
  35. 前記1つまたは複数のプロセッサは、
    前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータを復号することと、
    前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータを復号することと、
    前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータを復号することとを行うように構成された、請求項33に記載のビデオデコーダ。
  36. チェーン開始位置を復号することをさらに備え、前記チェーンが、前記予測ユニットの上境界において開始するのか、前記予測ユニットの左境界において開始するのか、前記予測ユニットの下境界において開始するのか、前記予測ユニットの右境界において開始するのかを示す、2ビットフラグを復号することを備える、請求項33に記載のビデオデコーダ。
  37. 前記2ビットフラグが、2進値「00」の場合、上境界を示し、前記2ビットフラグが、2進値「01」の場合、左境界を示し、前記2ビットフラグが、2進値「10」の場合、下境界を示し、前記2ビットフラグが、2進値「11」の場合、右境界を示す、請求項36に記載のビデオデコーダ。
  38. 前記2ビットフラグの第1ビットが、左境界から開始することを示し、前記2ビットフラグの第2ビットが、上境界または下境界のいずれかから開始することを示す、請求項36に記載のビデオデコーダ。
  39. 下境界から開始するとき、前記予測ユニットの右境界において前記チェーンを終了する、請求項33に記載のビデオデコーダ。
  40. ビデオデータを復号することが、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値を復号することなしに、復号することを備える、請求項33に記載のビデオデコーダ。
  41. ビデオデータを復号するための装置であって、前記装置は、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号するための手段と、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションを復号するための手段とを備える、装置。
  42. ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号するための手段と、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットの前記パーティションを復号するための手段とを備える、請求項41に記載の装置。
  43. 前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータを復号するための手段と、
    前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータを復号するための手段と、
    前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータを復号するための手段とを備える、請求項41に記載の装置。
  44. 前記要素の前記位置を表す前記データに基づいて、前記チェーンが左エッジまたは上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成するための手段と、
    前記チェーンが右エッジ上で開始するとき、前記パーティションマップを水平方向に反転するための手段と、
    前記チェーンが下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転するための手段とを備える、請求項41に記載の装置。
  45. ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値を復号することなしに、復号するための手段をさらに備える、請求項41に記載の装置。
  46. 実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号することと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の位置は、最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットのパーティションを復号することとを行わせる、命令を備えるコンピュータプログラム。
  47. 実行されたとき、前記デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータを復号することと、ここにおいて、最後の要素を除く前記要素の前記位置の各々が前記予測ユニット内にあり、ここにおいて、前記最後の要素の前記位置は、前記最後から2番目の要素が前記チェーンの最後の要素であることを示すために前記予測ユニット外にある、
    前記チェーンに基づく前記予測ユニットの前記パーティションを復号することとを行わせる、命令をさらに含む、請求項46に記載のコンピュータプログラム。
  48. 実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    前記チェーンが前記予測ユニットの水平エッジ上で開始するのか垂直エッジ上で開始するのかを示すデータを復号することと、
    前記データが、前記チェーンが垂直エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの左エッジ上で開始するのか右エッジ上で開始するのかを示すデータを復号することと、
    前記データが、前記チェーンが水平エッジ上で開始することを示すとき、前記チェーンが前記予測ユニットの上エッジ上で開始するのか下エッジ上で開始するのかを示すデータを復号することとを行わせる、命令をさらに含む、請求項46に記載のコンピュータプログラム。
  49. 実行されたとき、デバイスの1つまたは複数のプロセッサに、以下のステップを実施すること、すなわち、
    前記要素の前記位置を表す前記データに基づいて、前記チェーンが左エッジまたは上エッジのいずれかにおいて開始する場合、前記予測ユニットのピクセルが第1のパーティションに属するのか第2のパーティションに属するのかを示すパーティションマップを作成することと、
    前記チェーンが右エッジ上で開始するとき、前記パーティションマップを水平方向に反転することと、
    前記チェーンが下エッジ上で開始するとき、前記パーティションマップを垂直方向に反転することとを行わせる、命令をさらに含む、請求項46に記載のコンピュータプログラム。
  50. 実行されたとき、デバイスの1つまたは複数のプロセッサに、ビデオデータを復号するために、ビデオデータの予測ユニットを区分するチェーンの要素の位置を表すデータと、前記チェーンに基づく前記予測ユニットの前記パーティションとを、前記予測ユニットのための前記チェーン中の要素の数を示す値を復号することなしに、復号することを行わせる、命令をさらに含む、請求項46に記載のコンピュータプログラム。
JP2015532261A 2012-09-24 2012-09-24 深度マップコーディング Expired - Fee Related JP6158337B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/001296 WO2014043828A1 (en) 2012-09-24 2012-09-24 Depth map coding

Publications (2)

Publication Number Publication Date
JP2015533036A JP2015533036A (ja) 2015-11-16
JP6158337B2 true JP6158337B2 (ja) 2017-07-05

Family

ID=50340503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015532261A Expired - Fee Related JP6158337B2 (ja) 2012-09-24 2012-09-24 深度マップコーディング

Country Status (6)

Country Link
US (1) US20150229957A1 (ja)
EP (1) EP2898697A4 (ja)
JP (1) JP6158337B2 (ja)
KR (1) KR20150063468A (ja)
CN (1) CN104662908B (ja)
WO (1) WO2014043828A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2746182T3 (es) * 2010-04-13 2020-03-05 Ge Video Compression Llc Predicción entre planos
DK2559245T3 (en) 2010-04-13 2015-08-24 Ge Video Compression Llc Video Coding using multitræsunderinddeling Images
KR101626688B1 (ko) 2010-04-13 2016-06-01 지이 비디오 컴프레션, 엘엘씨 샘플 영역 병합
EP2559005B1 (en) 2010-04-13 2015-11-04 GE Video Compression, LLC Inheritance in sample array multitree subdivision
KR20130098122A (ko) * 2012-02-27 2013-09-04 세종대학교산학협력단 영상 부호화/복호화 장치 및 영상을 부호화/복호화하는 방법
WO2013129822A1 (ko) 2012-02-27 2013-09-06 세종대학교산학협력단 영상 부호화와 복호화 장치 및 영상을 부호화와 복호화하는 방법
KR20150116840A (ko) * 2013-01-02 2015-10-16 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR102216585B1 (ko) * 2013-01-04 2021-02-17 삼성전자주식회사 깊이 영상의 부호화 장치 및 복호화 장치, 부호화 방법 및 복호화 방법
EP2944082B1 (en) * 2013-01-11 2019-08-21 Huawei Technologies Co., Ltd. Method and apparatus of depth prediction mode selection
WO2015000168A1 (en) * 2013-07-05 2015-01-08 Mediatek Singapore Pte. Ltd. A simplified dc prediction method in intra prediction
CN105556972B (zh) * 2013-07-18 2019-04-05 三星电子株式会社 用于层间视频解码和编码设备和方法的对深度图像的场景内预测方法
US20170214939A1 (en) * 2014-03-31 2017-07-27 Samsung Electronics Co., Ltd. Method and apparatus for encoding or decoding depth image
CN104079943B (zh) * 2014-06-26 2017-11-28 华为技术有限公司 一种帧内深度图像块编码、解码的方法及装置
US11212553B2 (en) * 2017-11-28 2021-12-28 Electronics And Telecommunications Research Institute Bidirectional intra prediction method and apparatus
EP3554082A1 (en) * 2018-04-11 2019-10-16 InterDigital VC Holdings, Inc. A method and device for coding the geometry of a point cloud
TWI820197B (zh) 2018-08-28 2023-11-01 大陸商北京字節跳動網絡技術有限公司 與擴展四叉樹相關的分割的二值化
JP7479062B2 (ja) * 2018-10-01 2024-05-08 オーピー ソリューションズ, エルエルシー 指数関数的分割の方法およびシステム
CN113273217A (zh) 2019-02-03 2021-08-17 北京字节跳动网络技术有限公司 非对称四叉树分割
WO2020182874A1 (en) * 2019-03-12 2020-09-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Implementation efficient partition-based intra coding concept

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5913786B2 (ja) * 1979-09-04 1984-03-31 日本電信電話株式会社 画像信号符号化処理方式
JP3562661B2 (ja) * 1994-12-12 2004-09-08 ソニー株式会社 画像信号符号化方法及び画像信号復号方法
KR100203266B1 (ko) * 1996-07-09 1999-06-15 윤종용 윤곽선복호화장치
US5956428A (en) * 1997-05-19 1999-09-21 Ausbeck, Jr.; Paul James Stroke code for image partitions
WO2000019376A1 (en) * 1998-09-29 2000-04-06 Koninklijke Philips Electronics N.V. Partition decoding method and device
KR100987764B1 (ko) * 2003-09-04 2010-10-13 경희대학교 산학협력단 영상 데이터의 예측 부호화를 위한 참조 데이터 유닛 결정방법 및 그 장치
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
JP4207072B2 (ja) * 2006-04-07 2009-01-14 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
US8917286B2 (en) * 2008-11-11 2014-12-23 Sony Corporation Image processing device, information processing device, image processing method, and information processing method
CN102156825A (zh) * 2011-03-28 2011-08-17 重庆大学 一种基于数据挖掘的癌症疫苗试验数据编码及处理方法
MX2014001614A (es) * 2011-08-09 2014-05-28 Samsung Electronics Co Ltd Metodo y aparato para codificar un mapa de profundidad de datos de video de varios puntos de vista, y metodo y aparato para decodificar el mapa de profundidad codificado.
WO2013042912A2 (ko) * 2011-09-21 2013-03-28 엘지전자 주식회사 영상 부호화/복호화 방법 및 그 장치
US8929664B2 (en) * 2012-05-30 2015-01-06 Analog Devices, Inc. Shape detection using chain code states

Also Published As

Publication number Publication date
CN104662908B (zh) 2018-03-30
KR20150063468A (ko) 2015-06-09
CN104662908A (zh) 2015-05-27
EP2898697A4 (en) 2016-10-19
US20150229957A1 (en) 2015-08-13
EP2898697A1 (en) 2015-07-29
WO2014043828A1 (en) 2014-03-27
JP2015533036A (ja) 2015-11-16

Similar Documents

Publication Publication Date Title
JP6158337B2 (ja) 深度マップコーディング
JP6495390B2 (ja) ビデオコーディングにおける関心領域および漸次復号リフレッシュのシグナリング
JP7233218B2 (ja) ビデオコーディングのためにブロックの複数のクラスのためのフィルタをマージすること
JP6903644B2 (ja) ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
JP6046246B2 (ja) 3dビデオコーディングのための深度マップのイントラコーディング
JP6552923B2 (ja) ビデオコード化における動きベクトル予測
JP6141386B2 (ja) 深度範囲パラメータのシグナリング
JP6081499B2 (ja) 変換係数コーディングのためのコンテキスト導出における走査ベーススライディングウィンドウ
JP6162150B2 (ja) ビデオコーディング用の残差4分木(rqt)コーディング
JP5869008B2 (ja) ビデオコーディングにおける変換
JP6580562B2 (ja) イントラ予測フィルタリングの無効化
JP5932049B2 (ja) ビデオコード化のデブロッキングフィルタリングのための境界強度値の決定
JP6022586B2 (ja) ビデオコーディングのための隣接するビデオユニットの利用可能性の検出
JP5731013B2 (ja) Cabacを使用したビデオコーディングのためのイントラ予測モード選択の指示
JP6227678B2 (ja) 3dビデオコーディングにおける導出視差ベクトル
JP2019525605A (ja) 幾何学的変換ベースの適応ループフィルタリング
JP6262260B2 (ja) 深度マップイントラコード化のための予測子
JP2018537908A (ja) ビデオデータの符号情報をコーディングすること
JP6174152B2 (ja) ビデオコーディングにおける動作点用のシグナリングレイヤ識別子
JP2018142972A (ja) Bスライス中の予測ユニットの単方向インター予測への制限
JP6377623B2 (ja) ビデオコーディングにおけるターゲット出力レイヤ
JP2017523685A (ja) イントラブロックコピーイングのためのブロックベクトルコーディング
JP6042526B2 (ja) ビデオコーディングのための最後の位置コーディングのためのコンテキストの導出
EP2952000A2 (en) Unification of signaling lossless coding mode and pulse code modulation (pcm) mode in video coding
JP6067750B2 (ja) 並列動き推定範囲サイズの暗黙的導出

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170607

R150 Certificate of patent or registration of utility model

Ref document number: 6158337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees