JP5937212B2 - デプス符号化 - Google Patents

デプス符号化 Download PDF

Info

Publication number
JP5937212B2
JP5937212B2 JP2014527135A JP2014527135A JP5937212B2 JP 5937212 B2 JP5937212 B2 JP 5937212B2 JP 2014527135 A JP2014527135 A JP 2014527135A JP 2014527135 A JP2014527135 A JP 2014527135A JP 5937212 B2 JP5937212 B2 JP 5937212B2
Authority
JP
Japan
Prior art keywords
depth
segment
segmentation
video
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014527135A
Other languages
English (en)
Other versions
JP2014529955A (ja
Inventor
リュー,シュジー
ライ,ワン・リン
ティアン,ドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014529955A publication Critical patent/JP2014529955A/ja
Application granted granted Critical
Publication of JP5937212B2 publication Critical patent/JP5937212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

3Dに関連する実施態様が記載される。様々な特定の実施態様は、ビデオ画像に関連するデプスマップを符号化することに関する。
3次元(“3D”)応用において、ビデオ画像はしばしば、デプス情報を伴う。デプス情報は、ビデオ画像に対する様々な処理演算のために使用され得る。デプス情報の圧縮(ここでは、符号化と呼ばれる。)は、デプス情報のサイズを低減しようとする。
有効な符号化は、デプス情報の記憶及び送信を容易にするために持続的な要望である。
包括的な態様に従って、セグメンテーションが、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関して決定される。セグメンテーションは、前記ビデオ画像シーケンスに含まれる1つのビデオ画像の少なくとも一部分に関連する基準デプスインジケータに基づき決定される。前記ビデオ画像の特定の部分に関連する目標デプスインジケータが処理される。この処理は、前記ビデオ画像の特定の部分において前記決定をされたセグメンテーションに基づく。
他の包括的な態様に従って、セグメンテーションが、ビデオ画像の少なくとも所与の部分に関連するデプスインジケータに基づき前記所与の部分に関して決定される。前記セグメンテーションは、前記所与の部分におけるピクセル値と前記ビデオ画像の目標部分におけるピクセル値とに基づき、前記所与の部分から前記目標部分へ拡張される。
1又はそれ以上の実施態様の詳細は、添付の図面及び以下の記載において説明される。たとえ1つの特定の方法において記載されるとしても、当然、実施態様は様々な方法において構成又は具現されてよい。例えば、実施態様は、方法として実施され、装置、例えば、動作の組を実施するよう構成される装置若しくは動作の組を実施するための命令を記憶する装置として具現され、又は信号において具現されてよい。他の態様及び特徴は、添付の図面及び特許請求の範囲に関連して検討される以下の詳細な説明から明らかになるであろう。
時間にわたるビデオ画像のシーケンスの例と、関連するデプス画像のシーケンスとを表す図である。 デプス値を予測する装置及び処理の実施態様を表すブロック/フロー図である。 デプスブロックBに隣接するピクセルの例を表す図である。 図3の隣接ピクセルのセグメンテーションの例を表す図である。 図3の隣接ピクセルに関連するビデオピクセルへ適用される図4のセグメンテーションの例を表す図である。 デプスブロックBに関連するビデオブロックB’のビデオピクセルに広げられる図5のセグメンテーションの例を表す図である。 デプスブロックBへ適用される図6の拡張セグメンテーションの例を表す図である。 図4の隣接デプスピクセルのセグメンテーションを表す他の図である。 図5のセグメンテーションを図6のビデオブロックB’に広げる装置及び処理の実施態様を表すブロック/フロー図である。 図5のセグメンテーションを図6のビデオブロックB’に広げる他の装置及び処理の実施態様を表すブロック/フロー図である。 デプスサンプルを符号化するエンコーダ及び符号化処理の実施態様を表すブロック/フロー図である。 デプスサンプルを復号するデコーダ及び復号処理の実施態様を表すブロック/フロー図である。 領域拡張に基づく予測によりブロックを符号化する装置及び処理の実施態様を表すブロック/フロー図である。 領域拡張に基づく予測によりブロックを復号する装置及び処理の実施態様を表すブロック/フロー図である。 デプスデータを処理する装置及び処理の実施態様を表すブロック/フロー図である。 1又はそれ以上の実施態様とともに使用され得る送信システム及び処理の実施態様を表すブロック/フロー図である。 1又はそれ以上の実施態様とともに使用され得る受信システム及び処理の例を表すブロック/フロー図である。
本願において提示される特徴の幾つかのプレビューとして、少なくとも1つの実施態様は、(i)デプスマップにおける目標ブロックに隣接する再構成されたデプス値と、(ii)デプス値の目標ブロックに関連するビデオブロックとによる目標ブロックの符号化について記載する。実施態様は、隣接する再構成されたデプス値に対してセグメント化動作を実行し、その結果得られるセグメンテーションを用いてビデオブロックのセグメンテーションを生成する。ビデオブロックに関して生成されるセグメンテーションは次いで、目標デプスブロックを符号化するよう元の目標デプスブロックへ適用される。このように、デプス情報は、ビデオ情報をセグメント化する開始点を提供し、ビデオ情報のセグメンテーションは次いで、関連するデプス情報を符号化するために使用される。この実施態様は、デプス情報を符号化するためにデプス情報とビデオ情報とをまとめて考える。
他の実施態様では、新しい符号化モードが提供される。新しい符号化モードは、他のデプス画像を用いずにデプス画像を符号化する領域拡張(region-growing)モードと呼ばれることがある。加えて、少なくとも1つの実施態様は、予測参照として如何なる他のデプス画像も用いず、従来の予測参照として如何なるビデオ画像も用いない。
少なくとも1つの実施態様の1つの利点は、関連する2Dビデオ及び前に符号化されたデプス情報を用いることによって、現在のデプスブロックにおけるデプス情報が非常に高い精度を有して推定され得ることが可能である点である。幾つかの実施態様において、この推定は、デプス情報の符号化として用いられ、その場合に、デプス情報は、推定がエンコーダと同様にデコーダで決定され得ることから、送信又は記憶される必要がない。代替的に、幾つかの実施態様は、この推定をデプスの予測として使用し、残余が決定され符号化される。結果として、様々な実施態様はデプス情報を符号化するビットレートを低減し、更に、デプス情報の再構成によりレンダリングされるビューの品質を保つ。
少なくとも1つの実施態様において、上述されたように、領域拡張モードは有効なデプスマップ符号化のために提案される。領域拡張モードは、隣接デプス値と目標デプスブロックとの間の相関関係と、デプスマップと関連するビデオとの間の構造的類似性とを使用する。結果として、この符号化モードはまた、符号化されたデプスマップから再構成される再構成デプスマップを用いてレンダリングされるビューの品質を保つ。
様々な実施態様は、様々な応用の1又はそれ以上において有用である。例えば、3Dテレビジョン(“3DTV”)及び自由視点ビデオ(“FVV”)のような新しいビデオ応用では、捕捉、符号化及び復号をされたビューに加えて仮想ビューをレンダリングすることが一般的に必須である。デプス画像に基づくレンダリング(Depth Image Based Rendering)(“DIBR”)は、仮想ビューをレンダリングする技術である。レンダリングされたビューにおいて十分な品質を達成するよう、デプス境界はよく保たれることが望ましい。従来のビデオ符号化技術は通常、シャープエッジの周りで画像アーティファクトを生じる。デプスエッジの忠実な表現は、一般的に、デプス情報の他の領域を符号化することよりも想到に多くのビットを要する。幾つかの実施態様は、許容可能な負担で所望の品質を提供するのに有用である。
デプスデータは、当該技術で知られるように、視差データに変換され得る。加えて、本願で記載される実施態様及び特徴は、デプス及び視差の両方に適用されるよう意図される。然るに、デプス(例えば、デプスデータ、デプス値、デプス画像、デプスマップ、又はデプス情報)及び視差(例えば、視差データ、視差値、視差画像、視差マップ、又は視差情報)は、どの用語が使用されるのかにかかわらず、本明細書の全体を通じて扱われるよう意図される。
加えて、時々用語「デプスインジケータ」が使用され、用語「デプスインジケータ」は、ここで、例えば、デプス及び/又は視差を示す他のタイプのデータ又は情報とともに、デプスインジケータ及び/又は視差インジケータを含むと明示的に定義される。デプスインジケータは、例えば、様々な実施態様において、デプスデータ、視差データ、デプス値、視差値、デプス画像の少なくとも一部、視差画像の少なくとも一部、デプスマップの少なくとも一部、視差マップの少なくとも一部、デプス情報、及び/又は視差情報を含む。前記の事項は必ずしも、もれなくとり得るデプスインジケータではない。デプスインジケータを含むピクチャは、デプスインジケータピクチャと呼ばれることがある。
デプスインジケータは通常、特定のビデオピクセルに関して、又はビデオピクチャの特定の部分に関して、情報(例えば、デプス又は視差情報)を提供する。一例において、デプスインジケータはデプスマップにおいて具現され、デプスマップの位置(x,y)でのデプスインジケータは、特定のビデオピクチャの位置(x,y)での特定のビデオピクセルに関して実際のデプス値を提供する。本願の全体を通して、そのような関係は、デプスインジケータが特定のビデオピクセルに関連すると言うことによって、言及される。同等に、本願は、デプスインジケータが特定のビデオピクセルに対応すると言うことによって、そのような関係に言及する。
この概念は、当然、例えば、単一のピクセルよりも大きいビデオピクチャ及びデプスマップの部分に言及するよう一般化され得る。一例において、デプスマップは、ビデオピクチャにおけるピクセルに関して全てのデプス値を提供する。より具体的には、デプスマップの位置(x,y)でのデプス値は、全ての位置(x,y)に関して、ビデオピクチャの位置(x,y)でのピクセルのデプス値を提供する。デプスマップ全体は、ビデオピクチャ全体に関連する(又は対応する)と言われる。
図1を参照すると、一連のビデオピクチャ100と、一連のデプスピクチャ110とが示されており、これらは、本願における幾つかの実施態様の特定の態様を表すために使用される。一連のビデオピクチャ100は、時間T1で起こる第1ビデオピクチャV1と、時間T2で起こる第2ビデオピクチャV2と、時間T3で起こる第3ビデオピクチャV3とを含む。一連のデプスピクチャ110は、時間T1で起こる第1デプスピクチャD1と、時間T2で起こる第2デプスピクチャD2と、時間T3で起こる第3デプスピクチャD3とを含む。
V1及びD1は互いに対応し、V2及びD2は互いに対応し、V3及びD3は互いに対応する。対応は、例えば、D2におけるブロックがV2の対応する位置に関するデプス情報を含むことを意味する。これは、例えば、D2の位置(x,y)でのブロック130に対応するV2の位置(x,y)でのブロック120に関して、示されている。
本願の特定の以下の部分は、別個の項目に分けられる。この分割は、説明及び理解を容易にすることを目的とする。なお、分割は、決して本発明を制限するよう意図されない。特に、いずれかの所与の項目において与えられる開示は、項目分割がないのと同様に、いずれかの他の項目における開示に適用可能である。
[A.領域拡張に基づく予測]
ここでは、特定のM×Nブロックのデプス値に関して、より一般的には推定とも呼ばれる予測を生成する処理の実施態様について述べる。この実施形態において、M×Nブロックのデプス値及び隣接するデプス値のブロックと、対応するビデオが与えられる。この実施形態では、現在のM×NブロックBの予測を得るよう、領域拡張に基づく方法が提案される。図2を参照すると、領域拡張に基づく予測子が、図2において図示され且つ以下で記載される処理200に従って、生成され得る。
ステップ1:図2の動作210において記載されるように、ブロックBに隣接する隣接再構成デプスサンプルを決定する。図3乃至8を参照すると、図3は、ブロックBの左にある隣接するピクセルの列205と、ブロックBの上にある隣接するピクセルの列210とのみが、隣接再構成デプスサンプルとして考慮される当該ステップ1の例を示す。
ステップ2:隣接再構成デプスサンプルをセグメント化し、任意に、夫々のデプスサンプルにセグメンテーションインデックスを割り当てる。当該ステップ2は、図2の動作220において記載され、図4において表される。図4は、垂直ハッチングにより示される4つのピクセルを含む第1セグメント220と、水平ハッチングにより示される7つのピクセルを含む第2セグメント224と、対角ハッチングにより示される5つのピクセルを含む第3セグメント228とを含む。
ステップ3:図2の動作230において記載されるように、ブロックBに対応するビデオサンプルを決定する(図3乃至8には図示せず。)。なお、図1のブロック130がブロックBとして考えられる場合は、ブロック120は、ブロックBに対応するビデサンプルを含む。
ステップ4:図2の動作240において記載されるように、再構成デプスサンプル205、210に対応するビデオサンプルをセグメント化する。これを行う一例は、対応する再構成デプスサンプルのセグメンテーションと同じセグメンテーションをビデオサンプルへ適用することである。この例は、デプスブロックBに対応するブロックであるビデオブロックB’に関して、図5において示されている。図5は、ビデオブロックB’の左にあるビデオピクセルの列250’と、ビデオブロックB’の上にあるビデオピクセルの列210’とを含む。更に、ピクセル205’、210’は、デプスブロックBに対応のセグメンテーションに対応する3つのセグメントに分けられる。すなわち、ピクセル205’、210’は、(i)4つのピクセルを含み且つ図4のセグメント220に対応する、垂直ハッチングにより示される第1セグメント220’と、(ii)7つのピクセルを含み且つ図4のセグメント224に対応する、水平ハッチングにより示される第2セグメント224’と、(iii)5つのピクセルを含み且つ図4のセグメント228に対応する、対角ハッチングにより示される第3セグメント228’とに分けられる。
他の実施態様は、対応する再構成デプスサンプルのインデックス番号と同じインデックス番号をビデオサンプルへ割り当てる。
ステップ5:図2の動作250において記載されるように、ステップ4の最初のセグメンテーションに基づきビデオブロックB’をセグメント化する。一例が図6において示されており、この例において、セグメント220’、224’及び228’はビデオピクセルVPと呼ばれ、セグメンテーションはVPからビデオブロックB’に広げられる。図6は、列205’、210’における隣接ビデオピクセルVPの3つのセグメント220’、224’及び228’が3つのセグメントを生成するようビデオブロックB’に広げられていることを示す。ビデオブロックB’における3つの生成されるセグメントは、垂直ハッチングにより示される第1セグメント230’と、水平ハッチングにより示される第2セグメント234’と、対角ハッチングにより示される第3セグメント238’とを含む。
ハッチングによって示されるように、一実施態様において、セグメント230’、234’及び238’は、セグメント220’、224’及び248’から広がっていると考えられてよい。具体的に、セグメント230’は、セグメント220’から広がっていると考えられてよく、セグメント234’は、セグメント224’から広がっていると考えられてよく、セグメント238’は、セグメント228’から広がっていると考えられてよい。
ステップ6:図2の動作260において記載されているように、対応するビデオブロックB’のセグメンテーションに基づきデプスブロックBをセグメント化する。一例が図7において示されており、この例において、ビデオセグメント230’、234’及び238’はデプスブロックBに適用される。図7において、(i)デプスブロックBにおけるセグメント230は、共通の垂直ハッチングによって示されるように、隣接再構成デプスサンプルのセグメント220に関連し、(ii)デプスブロックBにおけるセグメント234は、共通の水平ハッチングによって示されるように、隣接再構成デプスサンプルのセグメント224に関連し、(iii)デプスブロックBにおけるセグメント238は、共通する対角ハッチングによって示されるように、隣接再構成デプスサンプルのセグメント228に関連する。
様々な実施態様は、セグメンテーションインデックスをブロックB及びB’のセグメントへ割り当てる。更に、特定の実施態様は、BとB’との間の対応するセグメントに関して、対応するインデックスを割り当てる。
加えて、様々な実施態様は、セグメンテーションインデックスを、再構成デプスサンプル205及び210のセグメントへ、更に、再構成デプスサンプル205及び210に対応するビデオサンプル205’及び210’のセグメントへ割り当てる。更に、特定の実施態様は、それらのデプスサンプル及びビデオサンプルの間の対応するセグメントに関して、対応するインデックスを割り当てる。
ステップ7:図2の動作270において記載されるように、図6のセグメンテーションに基づきデプスブロックBにおける夫々のデプスサンプルに関してデプス予測値を決定する(図3乃至8には図示せず。)。様々な実施態様は以下で与えられる。
以下で、ステップ2、ステップ5及びステップ7の詳細が与えられる。
[A.1.隣接デプスサンプルのセグメンテーション]
以下の説明は、図4によって示される上記ステップ2の実施態様の更なる詳細を提供する。
所与のデプスマップにおけるデプスサンプルはしばしば、シャープエッジによって分けられる同質のエリアを含む。結果として、幾つかの簡単なセグメンテーション方法は、領域拡張に基づく予測のための良好な結果を有すると期待される。一実施形態において、セグメンテーション規則は、閾値thに基づき連続的なセグメントを生成することである。2つの隣接するデプスサンプルの間のデプス値の差がthよりも大きい場合は、それら2つのサンプルは異なるセグメントへ割り当てられる。図4の実施態様では、デプス値の差は、夫々のデプスサンプルについて1又はそれ以上の方向において決定される。
図4の例は図8において続けられる。図8は16個の隣接再構成デプスサンプルを示す。それらのデプスサンプルは、サンプル214〜248及び251〜258として示されている。セグメンテーションを決定するよう、サンプル241のデプス値は、サンプル242のデプス値と比較される。差はthより小さいか又は等しく、従って、デプスサンプル241及び242は共通のセグメント220の部分である。同様に、サンプル242及び243のデプス値の間の差と、サンプル243及び244のデプス値の間の差とは両方とも、thより小さいか又は等しい。従って、サンプル241〜244は全て、共通のセグメント220の部分である。
しかし、サンプル244及び245のデプス値の間の差はthよりも大きく、従って、デプスサンプル245はセグメント220の部分ではない。むしろ、デプスサンプル245はセグメント224に含まれる。後続のデプスサンプルの対のデプス値の間の差はthよりも小さいか又は等しい。すなわち、(i)デプスサンプル245及び246、(ii)デプスサンプル246及び247、(iii)デプスサンプル247及び248、(iv)デプスサンプル248及び251、(v)デプスサンプル251及び252、(vi)デプスサンプル252及び253である。従って、デプスサンプル245〜248及び251〜253は全て、共通のセグメント224の部分である。デプスサンプル248及び251は、それらが十分に近接していると考えられるので比較される点に留意されたい。なお、他の実施態様は、デプスサンプル248からデプスサンプル251へ移動する場合に自動的に新しいセグメントを開始する。
しかし、サンプル253及び254のデプス値の間の差はthよりも大きい。従って、デプスサンプル254はセグメント224の部分ではない。むしろ、デプスサンプル254はセグメント228に含まれる。後続のデプスサンプルの対のデプス値の間の差はthよりも小さいか又は等しい。すなわち、(i)デプスサンプル254及び255、(ii)デプスサンプル255及び256、(iii)デプスサンプル256及び257、(iv)デプスサンプル257及び258である。従って、デプスサンプル254から258は全て、共通のセグメント228の部分である。
一実施態様において、閾値thは定数として設定される。幾つかの他の実施態様では、閾値thは、デプス画像における対応する最大及び最小デプス値に基づき決定される。1つの特定の実施態様はth=α×(dmax−dmin)を使用する。ここで、dmaxは最大デプス値であり、dminは最小デプス値であり、αは[0,1]から選択されるスケーリングされた係数である。
この実施態様の1つの変形において、最大及び最小デプス値は、予め再構成されている隣接するデプスブロックから決定され、それによりデコーダは同じ処理を行うことができる。この実施態様の他の変形は、予め再構成されているが現在のデプスブロックに隣接していない1又はそれ以上のデプスブロックを用いて最大及び最小デプス値を決定する。
この実施態様の他の変形は、符号化されているデプスブロックを用いて最大及び最小デプス値を決定し、更なる他の変形は、未だ符号化されていない1又はそれ以上の他のブロックを考慮する。デコーダは通常、正確な予め符号化されたデプス値を知らないので、特定の実施態様はthを計算しその値を送信する。thの値は通常整数であり、従って、この値を送信するオーバーヘッドは一般的に小さい。
これらの変形の組み合わせはまた、更なる実施態様を提供する。1つのそのような実施態様では、デプス画像全体が使用され、thの値が符号化されて送信される。
αの値は多数の方法において選択され得る。1つの実施態様において、αは、レートひずみ最適化に基づき最も効率のよい符号化モードを見つけ出すよう、経験的なデータに基づき決定される。αの小さな値はしばしば、より多くのセグメントをもたらす。より多くのセグメントを有することは、付加的な処理及び記憶を犠牲にして、より正確な予測を生成することができる。しかし、αが小さすぎる場合は、thも非常に小さいので、セグメンテーションはデプスピクセル値のわずかな変動にも過度に反応する(ロバスト性が低い。)。この過度の反応は、特定の実施態様において、潜在的にノイズの多い領域拡張結果、精度の低い予測、及び効率の悪い圧縮をもたらす。
[A.2.領域拡張]
以下の説明は、図5によって示される上記ステップ5の実施態様の更なる詳細を提供する。様々な方法が、ビデオピクセルへ適用される領域拡張処理において使用されてよい。図9及び10を参照すると、2つのそのような方法が図9及び10のフローチャートにおいて示されている。
図9は、ループ初期設定動作910において示されるように、ビデオブロックB’における夫々のピクセルpへ適用される処理900を記載する。処理900において、隣接ピクセルセットVPは予めセグメント化されており、そのセグメンテーションがビデオブロックB’に広げられる。
ステップ9−1:処理900は、ピクセルp’=argminq∈VP||I−I||を決定する動作920を含む。ここで、Iはピクセルqに関するピクセル値である。これは、現在のピクセルpに最も近い値を有するVPにおけるビデオピクセルを決定する。他の実施態様は単に、現在のピクセルpの値の閾値内の値を有する第1ビデオピクセルVPを決定する。
更なる他の実施態様は、VPのセグメンテーションの平均(他の実施態様は中央値又はモードを用いる。)を決定し、例えば、VPにおける全てのピクセルとIを比較するのではなく、それらの平均値とIとを比較する。この実施態様は有効に、夫々の現在のピクセルpをVPのセグメントと関連づける。比較は、様々な実施態様において、最も近い平均を決定すること、又は所与の閾値内にある第1平均を決定することによって、行われる。閾値は、様々な実施態様において、平均がピクセル値の絶対値の範囲内にある絶対閾値、又は平均がピクセル値の所与のパーセンテージ内にあるパーセンテージ閾値の1又はそれ以上である。
ステップ9−2:処理900は、ピクセルp’のセグメンテーションインデックスをピクセルpのセグメンテーションインデックスへ割り当てる動作930を含む。セグメンテーションインデックスを使用しない実施態様では、ピクセルpがピクセルp’と同じセグメントに割り当てられれば、そのセグメントが如何にして示されるのかにかかわらず、十分である。
処理900はまた、ビデオブロックB’において処理されるべき更なるピクセルpが存在するかどうかを決定する動作940を含む。処理されるべき更なるピクセルpが存在する場合は、動作920乃至930がそれらの残りのピクセルpに関して繰り返される。
図10は、ループ初期設定動作1060において示されるように、ビデオブロックB’における夫々のピクセルpへ適用される処理1050を記載する。処理1050において、処理900と同様に、隣接ピクセルセットVPは予めセグメント化されており、そのセグメンテーションがビデオブロックB’に広げられる。
ステップ10−1:初期設定動作として、ピクセルセットVP’=VP(ビデオブロックB’の隣接ピクセルセット)を設定する(図10に図示せず。)。
ビデオブロックB’における夫々のピクセルpに関して、次の2つのステップを行う。
ステップ10−2:処理1050は、次のように、セグメンテーションインデックスを決定する動作1070を含む:
Figure 0005937212
は、バイラテラルフィルタ設計において一般的に使用される正規化係数である。
処理1050はまた、動作1070からの結果に従ってピクセルpのセグメンテーションインデックスを設定する動作1080を含む。他の実施態様は動作1070及び1080を組み合わせる。
はピクセルpのセグメンテーションインデックスを指す点に留意されたい。更に、関数f及びgは夫々、ドメイン(空間)フィルタカーネル及びレンジフィルタカーネルを指す。fの値は、||p−q||が大きくなるほど小さいべきであり、同様に、gの値は、||I−I||が大きくなるほど小さいべきである。例えば、夫々pおよびIに中心があるガウシアンフィルタのように、異なる設計がそれら2つのカーネルのために使用されてよい。
動作1070及び1080は、ビデオブロックB’からのピクセルpを、バイラテラルフィルタ加重を最大とするセグメントに置く効果を有する。所与のセグメントに関する加重は、以下のステップ10−3において予めセグメントに置かれているビデオブロックB’からのピクセルp及び隣接ピクセルを含むセグメント内の全てのピクセルにわたって実行される。
バイラテラルフィルタは一般的に、(i)ピクセル間の距離と、(ii)ピクセル間のピクセル値の差とを両方とも考慮する効果を有する。よって、距離が近いピクセルは、関数fにより更なる重みを与えられ、同じであるピクセル値を有するピクセルは、関数gにより更なる重みを与えられる。
加えて、当然に、f及びgの選択は、単一のピクセルにどの程度の強調を与えるべきかを制御する。例えば、f及びgの選択に依存して、関数f及び/又はgの1又はそれ以上に関して高い値を有する単一のピクセルは、関数f及びgに関してより低い値を有する複数のピクセルにより重くされても又はされなくてもよい。
セグメンテーションインデックスを使用しない実施態様では、それ自体は、ピクセルpが上記の式を最大とする同じセグメントに割り当てられれば十分である。例えば、他の実施態様において、所与のピクセルpに関するセグメンテーションインデックスを決定する動作1070に代えて、動作1070はピクセルpに関するセグメントを決定する。同じバイラテラルフィルタの式が使用される(すなわち、同じ関数f及びgが使用される)が、バイラテラルフィルタの結果は、所与のセグメントにおける全てのピクセルにわたって合計され、この和を最大とするセグメントがピクセルpのセグメントとして選択される。
ステップ10−3:動作1070はまた、一実施態様において、VP’=VP’∪{p}を設定すること含む。当該ステップ10−3は、ビデオブロックB’における後続のピクセルpに関して上記のステップ10−2(同じく動作1070に含まれる。)において考慮されるピクセルの組を拡大する効果を有する。他の実施態様はステップ10−3をスキップし、処理1050の全体を通じてセットVP’を不変なままとする。
処理1050はまた、ビデオブロックB’において処理されるべき更なるピクセルpが存在するかどうかを決定する動作1090を含む。処理されるべき更なるピクセルpが存在する場合は、動作1070乃至1080がそれらの残りのピクセルpに関して繰り返される。
[A.3.デプス予測子の生成]
以下の説明は、図2の動作270において示される上記のステップ7の実施態様の更なる詳細を提供する。ステップ7は、上記より、図2の動作270において記載されるように(図3乃至8には図示せず。)、セグメンテーションに基づきデプスサンプルのデプスブロックBにおける夫々のデプスサンプルに関してデプス予測値を決定する。
様々な方法は、デプス予測値(デプス予測子とも呼ばれる。)を決定するために使用されてよい。幾つかの実施態様において、夫々のデプスサンプルの予測は、例えば、セグメンテーションインデックスに基づき、生成される。他の実施態様では、夫々のデプスサンプルの予測は、例えば、隣接ピクセルの値に基づき、生成される。他の実施態様では、夫々のデプスサンプルの予測は、例えば、セグメンテーションインデックス及び隣接ピクセルの値に基づき、生成される。
様々な実施形態において、隣接デプスサンプルの夫々のセグメント(セグメントは、幾つかの実施態様において、セグメンテーションインデックスに対応する。)に関する中央値又は平均値が計算される。これは、隣接デプスサンプルの夫々のセグメントに関して平均値を生成する。図4の例を用いると、例えば、これは、セグメント220に関する第1平均値と、セグメント224に関する第2平均値と、セグメント228に関する第3平均値とを生成する。
図4の例の使用を続けると、デプスブロックBにおけるデプスサンプルpに関するデプス予測は、隣接デプスサンプルの割り当てられるセグメントの中央値又は平均値として設定される。その割り当てられるセグメントは、例えば、セグメントインデックスSにより標識されてよい。図7の例を用いると、例えば、これは、(i)セグメント230におけるピクセルの夫々に関する第1平均値(セグメント220の平均)と等しいデプス予測と、(ii)セグメント234におけるピクセルの夫々に関する第2平均値(セグメント224の平均)と等しいデプス予測と、(iii)セグメント238におけるピクセルの夫々に関する第3平均値(セグメント228の平均)と等しいデプス予測とを生成する。
他の実施態様は、異なるメトリクス又は関数又はフィルタを使用する。1つの特定の実施態様はモードを使用し、他の実施態様は中央値を使用する。
[B.領域拡張モード]
この実施形態では、新しいデプス符号化モードが提案される。すなわち、領域拡張モードである。モードは、リファレンスとして異なる時間又は異なるビューからのデプスピクチャを用いずに、デプスピクチャの所与のブロックに関して予測を形成する。このモードを領域拡張モードと呼ぶこととする。このモードは、例えば、図11及び図12において示されるように、デプスエンコーダ/デコーダにおいて使用される。他の実施態様は、異なる時間からの及び/又は異なるビューからのリファレンスデプスピクチャを用いるよう領域拡張モードを適応させる。そのようなリファレンスデプスピクチャは、現在のデプスブロックを予測するのを助けるために、又は残余を符号化するために、異なる実施態様において使用される。
このモードの実施態様の説明のために更なる文脈を提供するよう、図11及び12がここで説明される。図11は符号化に関し、図12には復号に関する。
図11を参照すると、エンコーダ1100は、様々な実施態様において、例えば、ビデオ画像又はデプス画像のような画像を符号化するために使用されるエンコーダの実施態様を表す。エンコーダ1100はまた、特定の実施態様において、例えば、符号化されるビットストリームに関する情報を提供するメタデータのようなデータを符号化するためにも使用される。エンコーダ1100は、一実施態様において、例えば、図16に関連して後述されるビデオ送信システムの部分として実施される。また当然に、図11のブロックは、エンコーダのブロック図を提供することに加えて、符号化処理のフロー図を提供する。
入力画像シーケンスが加算器1101と、変位補償ブロック1120と、変位推定ブロック1118と、領域拡張に基づく予測ブロック1116とに到着する。変位(displacement)は、例えば、動き変位又は視差変位のいずれかを指す。入力画像シーケンスは、一実施態様において、デプスシーケンスである。加算器1101への他の入力は、スイッチ1123を通じて受け取られる様々な可能なリファレンスピクチャ情報項目の1つである。
例えば、第1シナリオにおいて、スイッチ1123と信号通信を行うモード決定モジュール1124は、現在符号化されている同じピクチャ(例えば、デプスピクチャ)からのブロックを参照して、符号化モードがイントラ予測であるべきであると決定する。この第1シナリオでは、加算器1101はその入力をイントラ予測モジュール1122から受け取る。代替的に、第2シナリオにおいて、モード決定モジュール1124は、現在符号化されているピクチャとは異なる(例えば、異なる時間若しくはビュー又はその両方)ピクチャを参照して、符号化モードが変位補償及び推定であるべきであると決定する。この第2のシナリオでは、加算器1101はその入力を変位補償モジュール1120から受け取る。代替的に、第3シナリオにおいて、モード決定モジュール1124は、現在符号化されているデプスおよび対応するビデオピクチャを参照して、符号化モードが領域拡張に基づく予測であるべきであると決定する(以下で更に説明される。)。この第3シナリオでは、加算器1101はその入力を領域拡張に基づく予測ブロック1116から受け取る。
様々な実施態様において、イントラ予測モジュール1122は、符号化されているブロックへ隣接ブロックである1又はそれ以上のブロックに基づく所定の予測子を提供する。様々な実施態様において、イントラ予測モジュール1122は、符号化されるピクチャ野中から最良のリファレンスブロックを探すことによって予測子(リファレンス)を提供する。
より具体的には、幾つかのそのような予測子に基づく実施態様は、予め符号化されている現在のピクチャの部分の再構成内を検索する。幾つかの実施態様において、検索は、既存のブロック境界にあるブロックに限定されている。しかし、他の実施態様では、検索は、それらのブロックが既存のブロック境界を横断するかどうかにかかわらずブロックを探すことができる。そのような検索のために、当該実施態様はしばしば、リファレンスとして単に所定の隣接ブロックを用いるよりも多くの時間及びプロセッサを要する。しかし、当該実施態様は通常、所与のブロックのより良い予測を見つけるという利点を提供する。
当該実施態様は、最も良く推定されたイントラ予測ブロックをもたらすことができる。加えて、様々な実施態様において、リファレンスブロックの境界はサブピクセル境界上にあることができ、リファレンスの回復は、復号の間にリファレンスとして使用される実際のブロックをリストアするよう補間ステップを伴う。ピクチャの内容に依存して、そのようなサブピクセル補間の実施態様は、リファレンスとしての隣接ブロックの使用と比較して圧縮効率を改善することができる。
加算器1101は、変換モジュール1102へ信号を供給する。変換モジュール1102は、その入力信号を変換して、変換された信号を量子化モジュール1104へ供給するよう構成される。量子化モジュール1104は、その受信信号に対して量子化を行い、量子化された情報をエントロピエンコーダ1105へ出力するよう構成される。エントロピエンコーダ1105は、その入力信号に対してエントロピ符号化を行ってビットストリームを生成するよう構成される。逆量子化モジュール1106は、量子化された信号を量子化モジュール1104から受信し、量子化された信号に対して逆量子化を行うよう構成される。次いで、逆変換モジュール1108は、逆量子化された信号を逆量子化モジュール1106から受信し、その受信信号に対して逆変換を行うよう構成される。逆変換モジュール1108の出力は、加算器1101から出力される信号の再構成である。
加算器(より一般的には、結合器と呼ばれる。)1109は、逆変換モジュール1108及びスイッチ1123から受信される信号を加算(結合)し、結果として得られる信号をイントラ予測モジュール1122、インループフィルタ1110及び領域拡張に基づく予測ブロック1116へ出力する。イントラ予測モジュール1122及び領域拡張に基づく予測ブロック1116は、その結果として得られる信号を、例えば、現在のピクチャからの更なるブロックを符号化するのに使用する。インループフィルタ1110は、所与のピクチャに関する再構成されたピクチャデータにフィルタをかけ、以下で更に説明されるデプスリファレンスバッファ1112へこれを供給する。結果として得られる信号は、エンコーダ1100へ入力される画像シーケンス信号の再構成である。
イントラ予測モジュール1122は、その受信信号を用いて、上述されたように、イントラ予測を行う。インループフィルタ1110は、加算器1109から受信された信号にフィルタをかけ、フィルタ処理された信号をデプスリファレンスバッファ1112へ供給する。デプスリファレンスバッファ1112は、画像情報を変位推定モジュール1118及び変位補償モジュール1120へ供給する。一実施態様において、デプスリファレンスバッファ1112は、例えば、現在のピクチャからではなく、他の時間インスタンス又は他のビューからのリファレンスピクチャを記憶する。インループフィルタ1110は、一実施態様において、デブロッキングフィルタである。
一実施態様において、インループフィルタ1110は、現在のブロックにおける所与のピクセルに関してフィルタ処理された結果を得るよう、隣接ピクセルを用いる。様々なフィルタ設計において、現在のブロックに関する隣接ピクセルは、復号されていないブロックからのピクセルを含む。然るに、そのようなフィルタ設計に関して、現在のブロックは、復号されている一方でフィルタ処理され得ない。加えて、既に復号されている特定の隣接ピクセルは、現在のブロックが復号されるまでフィルタ処理され得ない。結果として、少なくとも1つの実施態様は、イントラ予測又は領域拡張モードにおいて、フィルタ処理された結果を用いない。しかし、当該実施態様は、前のピクチャ(リファレンスピクチャ)からの全てのブロックが復号されておりフィルタ処理され得るので、インター予測のためにはフィルタ処理された結果を用いる。メタデータが、符号化されたメタデータとしてエンコーダ1100へ加えられ、エントロピエンコーダ1105からの出力ビットストリームと結合されてよい。代替的に、例えば、符号化されていないメタデータが、量子化された画像シーケンスとともにエントロピ符号化のためにエントロピエンコーダ1105へ入力されてよい。
データはまた、モード決定モジュール1124によって出力ビットストリームへ与えられる。モード決定モジュール1124は、所与のブロックを符号化するために使用されるモードを示す情報をビットストリームへ与える。そのような情報はしばしば、リファレンスブロックの場所のインジケーションを含む。例えば、イントラ予測を使用し且つリファレンスブロックを見つけるよう現在のピクチャの検索を行う様々な実施態様において、モード決定モジュール1124は、視差ベクトルを用いてリファレンスの場所を示す。視差ベクトル情報は、イントラ予測モジュール1122によってモード決定モジュール1124へ供給されてよい。
以下で更に記載されるように、視差ベクトル情報は、リファレンスとして隣接マクロブロックの視差ベクトルを用いて差次的に符号化されてよい。加えて、ピクチャに関する視差ベクトルは、視差ベクトルにおいて空間的類似性が存在する可能性が高いので、エントロピを除くようグループ化され、加えて符号化されてよい。
ビデオリファレンスバッファ1114は、一実施態様において、符号化されるデプス画像に対応するビデオ画像を記憶する。別個のビデオエンコーダが、一実施態様において、ビデオ画像を符号化するために使用され、そのビデオエンコーダがビデオリファレンスバッファ1114を含む。一実施態様において、領域拡張に基づく予測ブロック1116は、符号化されるデプスブロックに対応するビデオの座標を決定するよう、入力画像シーケンスによって供給される情報を使用する。領域拡張に基づく予測ブロック1116は、ビデオリファレンスバッファ1114からの所望のビデオにアクセスするためにそれらの座標を使用する。所望のビデオは、一実施態様において、符号化されるデプスサンプルに隣接するデプスサンプルに対応するビデオと、符号化されるデプスサンプルに対応するビデオとを含む。
領域拡張に基づく予測ブロック1116は、様々な実施態様において、符号化される画像の予測を提供するよう動作する。一実施態様において、領域拡張に基づく予測ブロック1116は、図2の処理200を実行する。
図12を参照すると、デコーダ1200は、例えば、デプス画像のような画像を復号するために使用され得るデコーダの実施態様を表す。復号された画像は、一実施態様において、デプスデータに基づき更なるビューを生成するレンダリング装置へ供給される。デコーダ1200は、他の実施態様では、例えば、復号されたビットストリームに関する情報を提供するメタデータを復号化するために、及び/又はビデオデータを復号するために、使用される。一実施態様において、デコーダ1200は、例えば、図17に関連して以下で記載されるビデオ受信システムの部分として実施される。また当然に、図12のブロックは、デコーダのブロック図を提供することに加えて、復号処理のフロー図を提供する。
デコーダ1200は、ビットストリーム受信器1202を用いてビットストリームを受信するよう構成される。ビットストリーム受信器1202は、ビットストリームパーサー1204と信号通信を行い、ビットストリームをビットストリームパーサー1204へ供給する。
ビットストリームパーサー1204は、残余ビットストリームをエントロピデコーダ1206へ送信するよう、制御シンタックス要素をモード選択モジュール1216へ送信するよう、及び変位(動き/視差)ベクトル情報を変位補償モジュール1226へ送信するよう構成される。
変位ベクトル情報は、例えば、動きベクトル情報又は視差ベクトル情報であってよい。動きベクトル情報は通常、前の画像からの相対的な動きを示すインター予測において使用される。視差ベクトル情報は通常、(i)別個の画像に対する視差を示すインター予測、又は(ii)同じ画像の部分に対する視差を示すイントラ予測のいずれかにおいて使用される。当該技術において知られているように、視差は通常、2つの画像の間の相対オフセット又は変位を示す。視差はまた、画像の2つの部分の間の相対オフセット又は変位を示すために使用されてよい。
逆量子化モジュール1208は、エントロピデコーダ1206から受信されたエントロピ復号された信号に対して逆量子化を行う。加えて、逆変換モジュール1210は、逆量子化モジュール1208から受信された逆量子化された信号に対して逆変化を行い、逆変化をされた信号を加算器(結合器とも呼ばれる。)1212へ出力するよう構成される。
加算器1212は、用いられる復号モードに依存して様々な他の信号の1つを受信することができる。例えば、一実施態様において、モード決定モジュール1216は、変位補償又はイントラ予測符号化が現在処理されているブロックに対してエンコーダによって行われたかどうかを、制御シンタックス要素をパースし解析することによって決定する。決定されたモードに依存して、モード選択モジュール1216はスイッチ1217にアクセスして、制御シンタックス要素に基づきそれを制御し、加算器1212が変位補償モジュール1226、イントラ予測モジュール1218又は領域拡張に基づく予測ブロック1230から信号を受信するようにする。
ここで、イントラ予測モジュール1218は、現在復号されている同じピクチャへのリファレンスを用いてブロックを復号するようにイントラ予測を行うよう構成される。次に、変位補償モジュール1226は、現在復号されているピクチャとは異なる他の前に処理されたピクチャ(例えば、異なる時間若しくはビュー、又はその両方からのピクチャ)のブロックへのリファレンスを用いてブロックを復号するように変位補償を行うよう構成される。領域拡張に基づく予測ブロック1230は、復号されるブロックに関して予測を決定するよう構成される。
領域拡張に基づく予測ブロック1230は、様々な実施態様において、復号される画像の予測を提供するよう動作する。一実施態様において、領域拡張に基づく予測ブロック1230は図2の処理200を実行する。加えて、様々な実施態様において、領域拡張に基づく予測ブロック1230は、エンコーダ1100の領域拡張に基づく予測ブロック1116と同じ動作を実行する。
予測又は補償情報信号を受信した後、加算器1212は、インループフィルタ1214への送信のために、予測又は補償情報信号を逆変換された信号と結合する。インループフィルタ1214は、例えば、ブロッキングアーティファクトを除去するデブロッキングフィルタである。加算器1212はまた、結合された信号を、イントラ予測における使用のためにイントラ予測モジュール1218へ出力し、更に領域拡張に基づく予測ブロック1230へ出力する。
インループフィルタ1214は、その入力信号をフィルタ処理し、復号されたピクチャを出力するよう構成される。更に、インループフィルタ1214は、フィルタ処理された信号をデプスリファレンスバッファ1220へ供給する。デプスリファレンスバッファ1220は、変位補償モジュール1226による変位補償復号化を可能にし支援するようにその受信信号をパースするよう構成される。変位補償モジュール1226へは、デプスリファレンスバッファ1220がパースされた信号を供給する。そのようなパースされた信号は、例えば、リファレンスとして使用された様々なピクチャの全て又は部分であってよい。
ビデオリファレンスバッファ1240は、一実施態様において、復号されるデプス画像に対応するビデオ画像を記憶する。別個のビデオデコーダが一実施態様において、ビデオ画像を復号するために使用され、そのビデオデコーダがビデオリファレンスバッファ1240を含む。領域拡張に基づく予測ブロック1230は、少なくとも1つの実施態様において、復号されるデプスブロックに対応するビデオの座標を決定する。領域拡張に基づく予測ブロック1230は、ビデオリファレンスバッファ1240からの所望のビデオにアクセスするためにそれらの座標を使用する。所望のビデオは、一実施態様において、復号されるデプスサンプルに隣接するデプスサンプルに対応するビデオと、復号されるデプスサンプルに対応するビデオとを含む。領域拡張に基づく予測ブロック1230は、様々な方法においてビデオ座標を決定する。例えば、一実施態様において、領域拡張に基づく予測ブロック1230は、復号化がピクチャ及びブロック内で既知の態様(例えば、非我利から右及び上から下)において進行するので、復号されるデプスブロックの座標を自動的に知る。他の例として、他の実施態様では、領域拡張に基づく予測ブロック1230は、復号されるデプスブロックの座標を決定するよう、入力されるビットストリームによって与えられる情報を使用する。対応するビデオは、デプスブロックと同じ座標を有すると推定され、あるいは、データが、対応するビデオを示すよう与えられる。
メタデータが、ビットストリーム受信器1202へ供給されるビットストリームにおいて含まれてよい。メタデータは、ビットストリームパーサー1204によってパースされて、エントロピデコーダ1206によって復号されてよい。復号されたメタデータは、出力を用いてエントロピ復号化の後にデコーダ1200から取り出されてよい(図示せず。)。
少なくとも1つの実施態様において、図12のブロックの多くは、図11における対応するブロックの逆の動作を行う。例えば、一実施態様において:
・エントロピデコーダ1206はエントロピエンコーダ1105の逆を実行し、
・逆量子化モジュール1208は量子化モジュール1104の逆を実行し、
・逆変換モジュール1210は変換モジュール1102の逆を実行する。
更に、既に上述されたように、少なくとも1つの実施態様において、図12のブロックの多くは、図11における対応するブロックと同じ動作を実行する。例えば、一実施態様において:
・インループフィルタ1214はインループフィルタ1110と同じ動作を実行し、
・イントラ予測モジュール1218はイントラ予測モジュール1122と同じ動作を実行し、
・変位補償モジュール1226は変位補償モジュール1120と同じ動作を実行し、
・領域拡張に基づく予測ブロック1230は領域拡張に基づく予測ブロック1116と同じ動作を実行する。
再び領域拡張モードについて検討する。このモードの一実施態様において、モードは16×16マクロブロック(“MB”)レベルで実施される。しかし、領域拡張予測は4×4ブロックレベルで実行される。他の実施態様は、予測を実行するために異なるサイズを使用する。この実施態様の符号化及び復号化処理は以下で記載される。
[B.1.領域拡張に基づくモードによる符号化]
再び図11を参照すると、エンコーダ1100は、領域拡張モードを実施するデプスエンコーダの実施態様を提供する。エンコーダ1100の2つのブロックは特に、領域拡張モードを実施するのに関与する。それら2つのブロックは領域拡張に基づく予測ブロック1116及びビデオリファレンスバッファ1114である。それら2つのブロックの動作は先に記載されている。少なくとも1つの実施態様において、ビデオリファレンスバッファ1114は、ビデオエンコーダからの再構成されたビデオフレームがRG予測のためにアクセスされ得るように保持される点に留意されたい。
図13を参照すると、領域拡張モードによりマクロブロックを符号化する処理1300が示されている。他の実施態様は、例えば、領域拡張モードのような領域拡張予測を、マクロブロックよりも大きいデータ(例えば、フィールド、フレーム、又はフレームの組)、マクロブロックよりも小さいデータ(例えば、パーティション)、及び/又は不均一な形状のデータ(例えば、非長方形のデータ)へ適用する。処理1300は次の動作を含む。
ステップ13−1:処理1300は、現在のMBを4×4のブロックに分割する動作(1310)を含む。他の実施態様は、例えば、4×8、8×4、8×8、8×16、又は16×8といった、4×4以外のサイズを有するパーティションを使用する。
ステップ13−2:夫々の4×4ブロックに関して、処理1300はループに入る(1320)。ループ内で、所与の4×4ブロックに関して、処理1300は、隣接する再構成されたデプスサンプルから領域拡張に基づく予測を決定する動作(1330)を行う。一実施態様において、領域拡張に基づく予測は図2の処理200を用いて決定される。
ステップ13−3:ループ内で、処理1300は任意に、ステップ13−2で決定された予測を精緻化する(1340)。動作1340の破線ボックスは、動作1340が処理1300において任意であることを示す。
ステップ13−4:ループ内で、処理1300は、ステップ13−2における動作1330又はステップ13−3における動作1340のいずれかからの予測されるデプス値と入力デプス情報とに基づき残余を決定する(1350)。一実施態様において、残余は、入力デプス情報と予測デプス値との間の差として計算され、次いで、変換及び量子化をなされる(例えば、図11におけるブロック1102、1104を参照)。他の実施態様は、符号化処理の部分として残余に対して追加の動作を行う。
ステップ13−5:ループ内で、処理1300は、残余情報と予測デプス値とに基づき、再構成されたデプスブロックを決定する(1360)。一実施態様において、再構成は、残余情報(例えば、図11のブロック1106及び1108において示されるように逆量子化及び逆変換をされる。)を予測デプス値に加えることによって形成される。他の実施態様は、符号化処理の部分として残余に対して追加の動作を行う。
ステップ13−6:処理1300は、次のブロックに関して再びループ動作を実行すべきかどうかを決定する(1370)。更なるブロックが依然として処理されていない場合は、処理1300は次のブロックに関してステップ13−2乃至ステップ13―5を実行し(ステップ13−3は任意である点に留意されたい。)、全てのブロックが処理されるまでループ動作を実行し続ける。ブロックは上から下及び左から右へ処理される。一実施態様は、全ての行が処理されるまで、上の行を(左から右へ)処理し、次いで、下にある次の行へ移動することによって、左から右及び上から下へ進む。他の実施態様は、全ての列が処理されるまで、左の列を(上から下へ)処理し、右側の次の行へ移動することによって、同等の結果を提供する。更なる他の実施態様は、どの隣接ピクセルが処理において使用されるかどうかに依存して、右から左へ及び/又は下から上へ処理する。他の実施態様は異なる順序においてブロックを処理する。
MBからの以前に符号化されたブロック/パーティションは、同じMBからの現在の(異なる)ブロック/パーティションの予測を生成するために使用され得る点に留意されたい。これは、残余情報が夫々のブロック/パーティションについて独立に処理されるためであり、前のブロック/パーティションの再構成は、現在のブロック/パーティションの予測が決定される前に利用可能である。
ステップ13−3における精緻化の処理は、エンコーダ及び/又はデコーダの複雑性を低減するために、様々な実施態様においてスキップされる。しかし、幾つかの実施態様は精緻化動作を含む。精緻化動作は、例えば、付加的なフィルタリング動作を含む。
精緻化動作の更なる他の例を提供する。一実施態様において、4×4ブロックにおける所与のデプスサンプルに関して、2つの基準を満足する隣接デプスサンプルが特定される。2つの基準は、所与のデプスサンプル及び隣接デプスサンプルが(i)互いに同じデプス値を有し、且つ(ii)互いに同じ対応するビデオピクセル値を有することである。それらの特定された隣接デプスサンプルの中央デプス値が決定される。中央値は、精緻化されたデプスサンプル値として使用される。
隣接デプスサンプルは、一実施態様に関して、符号化されるデプスサンプルの4×4のブロックの直ぐ上にある4つのピクセルの組と、直ぐ左側にある4つのピクセルの組とである。隣接デプスサンプルは、1又はそれ以上の前に符号化されたブロック/パーティションからの再構成されたデプスサンプルである点に留意されたい。隣接ピクセルの組は、例えば、最大で8個のピクセルである。隣接ピクセルの組は、動作1330及び/又は動作260において符号化される所与のデプスピクセルに関連するセグメントにおけるピクセルの組よりも大きいか又はそれより小さく、それと重なり合うか又は重なり合っていない。
隣接デプスサンプルは、他の実施態様に関して、上記の2つの精緻化基準を更に満たす関連セグメント(例えば、動作260において決定される。)からのデプスサンプルに制限される。このように、隣接デプスサンプルの組は、当該セグメントにおけるピクセルの組よりも大きくなく、それと重なり合う。
上記の2つの精緻化基準は、例えば、2つの値が互いの所与の閾値範囲内にある場合にそれらの値が同じであると決定することによって、評価され得る。閾値は、例えば、絶対閾値又はパーセンテージ閾値であってよい。
一実施態様は、隣接デプスサンプルの中央値を計算する。なお、他の実施態様は、平均又はモードの1又はそれ以上を計算する。
[B.2.復号化/レンダリング]
この実施態様のデコーダ側で、2Dビデオのフレームは、対応するデプスデータを復号する前に復号される。再び図12を参照すると、デコーダ1200は、デプスデータを復号するデプスデコーダの実施態様を提供する。特に、デコーダ1200は、領域拡張モードを用いて符号化されているデータを復号することができる。デコーダ1200の2つのブロックが特に、領域拡張モードにより符号化されているデプスデータを復号するのに必要とされる。それら2つのブロックは、領域拡張に基づく予測ブロック1230及びビデオリファレンスバッファ1240である。それら2つのブロックの動作は上述されている。
図14を参照すると、領域拡張モードにより符号化されているMBを復号する処理1400が示されている。他の実施態様は、領域拡張に基づくモード、すなわち、より一般的には、領域拡張予測を、マクロブロックよりも大きいデータ(例えば、フィールド、フレーム、フレームの組)、マクロブロックよりも小さいデータ(例えば、パーティション)、及び/又は不均一な形状のデータ(例えば、非長方形のデータ)へ適用する。然るに、復号化側及び復号化側の両方の他の実施態様は、マクロブロックとは異なるサイズ及び/又は形状を有するデータセットに作用する。処理1400は次の動作を含む。
ステップ14−1:処理1400は、残余を復号する(1410)。
ステップ14−2:処理1400は、MBを4×4のブロックに分割する(1420)。
ステップ14−3:夫々の4×4ブロックに関して、処理1400はループに入る(1430)。ループ内で、所与のブロックに関して、処理1400は、隣接する復号されたブロックに基づき、領域拡張に基づく予測を決定する動作(1440)を含む。この動作は、復号化処理1300の動作1330において行われる動作と同じである。ブロック走査順序は通常、エンコーダにおいて使用された順序と同じであり、例えば、左から右、及び上から下である。これは、エンコーダ及びデコーダで一貫した結果を提供する。これはまた、必要とされるブロックをデコーダで適切な順序において提供し、よって、受け取ったブロックを記憶する如何なる必要性も低減し、一方、受け取ったブロックを該ブロックが受け取られる順序とは異なる順序で復号する。
ステップ14−4:ループ内で、処理1400は任意に、動作1440で決定された予測を精緻化する(1450)。この動作は、符号化処理1300の動作1340で行われる動作と同じである。加えて、他の実施態様は精緻動作を行うが、精緻化された予測を使用すべきかどうかを決定する判定処理を経由する。一貫性を確保するよう、それらの他の実施態様は、エンコーダ及びデコーダの両方で同じ判定処理を行うか、又はエンコーダが判定処理の結果をデコーダへ送信する。動作1450の破線ボックスは、動作1450が処理1400において任意であることを示す。
ステップ14−5:ループ内で、処理1400は、ブロック再構成する行う動作(1460)を含む。一実施態様において、4×4ブロックは、動作1410(ステップ1)からの復号された残余情報を、ステップ14−3(動作1440)又はステップ14−4(動作1450)のいずれかから生成された現在のブロック予測に加えることによって、再構成される。再構成されたデプスブロックは、現在のデプスブロックに関する復号された結果である。ステップ14−4に関して説明されたように、幾つかの実施態様は、精緻化された予測を使用すべきかどうかを決定する判定処理を有する。
ステップ14−6:処理1400は、次のブロックに関して再びループ動作を実行すべきかどうかを決定する(1470)。更なるブロックが依然として処理されていない場合は、処理1400は次のブロックに関してステップ14−2乃至ステップ14―5(動作1440乃至1460)を実行する(ステップ14−4及び動作1450は任意である。)。更に、処理1400は、全てのブロックが処理されるまで(すなわち、全てのブロックが復号されるまで)ループ動作を実行し続ける。ブロックは、符号化側で行われるように、上から下及び左から右へ処理される。他の実施態様は異なる順序においてブロックを処理する。
図15を参照すると、デプスインジケータを処理する処理1500が示されている。この処理は様々な異なる動作を含んでよい。例えば、様々な実施態様において、処理は、デプスインジケータの予測を形成すること、デプスインジケータを符号化すること、及び/又はデプスインジケータを復号することを含む。
処理1500は、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定する動作(1510)を含む。セグメンテーションは、基準デプスインジケータに基づき決定される。基準デプスインジケータは、ビデオ画像シーケンスに含まれる少なくとも1つのビデオ画像に関する。
処理1500は、ビデオ画像の特定の部分に対応する目標デプスインジケータを処理する動作(1520)を含む。この処理動作は、ビデオ画像の特定の部分における決定をされたセグメンテーションに基づく。
処理1500の様々な実施態様は3ステップ処理を使用する。ここで、特定の実施態様に適用可能な1つのそのような3ステップ処理について説明する。第1ステップで、デプスデータ処理される。第2ステップで、(第1ステップからの)デプスデータの処理が、関連するビデオを処理するのに使用される。関連するビデオは、処理されたデプスデータに厳密には対応する必要がない点に留意されたい。例えば、一実施態様において、関連するビデオデータは、処理されたデプスデータに隣接するデプスデータに対応する。第3ステップで、関連するビデオデータの処理が、対応するデプスデータを処理するのに使用される。このように、当該実施態様の3ステップ処理はデプスデータにより開始及び終了する。
一実施態様において、動作1510及び1520は、領域拡張に基づく予測ブロック1116及び/又は1230において行われる。
ここで図16を参照すると、ビデオ送信システム又は装置1600が示されている。当該システム又は装置1600には、上記の特徴及び原理が適用されてよい。ビデオ送信システム又は装置1600は、例えば、衛星、ケーブル、電話回線、又は地上放送のような様々な媒体のいずれかにより信号を送信するヘッドエンド又は送信システムであってよい。ビデオ送信システム又は装置1600は更に、又は代替的に、例えば、記憶のために信号を提供するよう使用されてよい。送信は、インターネット又はその他ネットワークを介して提供されてよい。ビデオ送信システム又は装置1600は、例えば、ビデオコンテンツと、例えば、デプス及び/又は視差値を含むデプスのインジケータのような他のコンテンツとを生成し供給することができる。また当然に、図16のブロックは、ビデオ送信システム又は装置のブロック図を提供することに加えて、ビデオ送信処理のフロー図を提供する。
ビデオ送信システム又は装置1600は、プロセッサ1601から入力ビデオを受け取る。一実施態様において、プロセッサ1601は単に、図1のビデオ画像V1、V2及びV3のようなビデオ画像をビデオ送信システム又は装置1600へ供給する。なお、他の実施態様では、プロセッサ1601は代替的に、又は付加的に、図1のデプス画像D1、D2及びD3のようなデプス画像をビデオ送信システム又は装置1600へ供給する。プロセッサ1601はまた、メタデータをビデオ送信システム又は装置1600へ供給してよく、メタデータは入力画像の1又はそれ以上と関連している。
ビデオ送信システム又は装置1600は、エンコーダ1602と、符号化された信号を送信することができる送信器1604とを含む。エンコーダ1602はプロセッサ1601からビデオ情報を受け取る。ビデオ情報は、例えば、ビデオ画像、及び/又は視差(若しくはデプス)画像を含んでよい。エンコーダ1602は、ビデオ及び/又は視差情報に基づき、符号化された信号を生成する。エンコーダ1602は、一実施態様において、図11のエンコーダ1100である。
様々な実施態様において、エンコーダ1602は、例えば、AVCエンコーダである。AVCエンコーダは、ビデオ及び視差情報の両方に適用されてよい。ACVは、既存のISO/IEC(International Organization for Standardization/International Electrotechnical Commission)MPEG−4(Moving Picture Experts Group-4)パート10AVC(Advanced Video Coding)標準/ITU−T(International Telecommunication Union, Telecommunication Sector)H.264提言(以降、“H.264/MPEG−4AVC標準”、あるいは、“AVC標準”、“H.264標準”又は単に“AVC”若しくは“H.264”のようなその言い換え)を指す。
エンコーダ1602は、例えば、記憶又は送信のために情報の様々な片を受信し、それらを構造化されたフォーマットにまとめるアセンブリユニットを含むサブモジュールを含んでよい。情報の様々な片は、例えば、符号化された又は符号化されていないビデオと、符号化された又は符号化されていない視差(又はデプス)値と、例えば、動きベクトル、符号化モードインジケータ、及びシンタックス要素のような符号化された又は符号化されていない要素とを含んでよい。幾つかの実施態様において、エンコーダ1602はプロセッサ1601を含み、従って、プロセッサ1601の動作を実行する。
送信器1604は、エンコーダ1602から符号化された信号を受信し、符号化された信号を1又はそれ以上の出力信号において送信する。送信器1604は、例えば、符号化されたピクチャ及び/又はそれに関する情報を表す1又はそれ以上のビットストリームを有するプログラム信号を送信するよう構成されてよい。典型的な送信器は、例えば、エラー訂正符号化、信号におけるデータのインターリービング、信号におけるエネルギのランダム化、及び変調器1606による1又はそれ以上のキャリア上への信号の変調の中の1又はそれ以上のような機能を実行する。送信器1604は、アンテナ(図示せず。)を含むか、又はそれとインターフェース接続してよい。更に、送信器1604の実施態様は変調器1606に制限されてよい。
ビデオ送信システム又は装置1600はまた、記憶ユニット1608へ通信上結合される。一実施態様において、記憶ユニット1608はエンコーダ1602へ結合され、記憶ユニット1608は、エンコーダ1602からの符号化されたビットストリームを記憶し、任意に、記憶されたビットストリームを送信器1604へ供給する。他の実施態様では、記憶ユニット1608は送信器1604へ結合され、送信器1604からのビットストリームを記憶する。送信器1604からのビットストリームは、例えば、送信器1604によって更に処理された1又はそれ以上の符号化されたビットストリームを含んでよい。記憶ユニット1608は、異なる実施態様において、標準のDVD、ブルーレイディスク、ハードドライブ、又はその他記憶装置の中の1又はそれ以上である。
ここで図17を参照すると、ビデオ受信システム又は装置1700が示されており、当該システム又は装置には、上記の特徴及び原理が適用されてよい。ビデオ受信システム又は装置1700は、例えば、衛星、ケーブル、電話回線、又は地上放送のような様々な媒体を介して信号を受信するよう構成されてよい。信号は、インターネット又はその他ネットワークを介して受信されてよい。また当然に、図17のブロックは、ビデオ受信システム又は装置のブロック図を提供することに加えて、ビデオ受信処理のフロー図を提供する。
ビデオ受信システム又は装置1700は、例えば、符号化されたビデオを受信し、復号されたビデオ信号を表示(例えば、ユーザへの表示)のために、処理のために、又は記憶のために提供する携帯電話機、コンピュータ、セットトップボックス、テレビジョン、又は他の装置であってよい。よって、ビデオ受信システム又は装置1700は、その出力を、例えば、テレビジョンのスクリーン、コンピュータモニタ、コンピュータ(記憶、処理、又は表示のため)、又はその他の記憶、処理、若しくは表示の装置へ供給してよい。
ビデオ受信システム又は装置1700は、ビデオ情報を受信し処理することができ、ビデオ情報は、例えば、ビデオ画像及び/又は視差(若しくはデプス)画像を含んでよい。ビデオ受信システム又は装置1700は、例えば、本願の実施態様において記載される信号のような符号化された信号を受信する受信器1702を含む。受信器1702は、例えば、図1のビデオ画像V1、V2及びV3、図1のデプス画像D1、D2及びD3、又は図6のビデオ送信システム又は装置1600から(例えば、記憶ユニット1608又は送信器1604から)出力された信号の中の1又はそれ以上を供給する信号を受信してよい。
受信器1702は、例えば、符号化されたピクチャ(例えば、ビデオピクチャ又はデプスピクチャ)を表す複数のビットストリームを有するプログラム信号を受信するよう構成されてよい。典型的な受信器は、例えば、変調され符号化されたデータ信号の受信、復調器1704による1又はそれ以上のキャリアからのデータ信号の復調、信号におけるエネルギのデランダマイズ、信号におけるデータのデインターリービング、及び信号のエラー訂正復号化の中の1又はそれ以上のような機能を実行する。受信器1702は、アンテナ(図示せず。)を含むか、又はそれとインターフェース接続してよい。受信器1702の実施態様は復調器1704に制限されてよい。
ビデオ受信システム又は装置1700はデコーダ1706を含む。デコーダ1706は、一実施態様において、図12のデコーダ1200である。
受信器1702は受信信号をデコーダ1706へ供給する。受信器1702によってデコーダ1706へ供給される信号は1又はそれ以上の符号化されたビットストリームを含んでよい。デコーダ1706は、例えば、ビデオ情報を含む復号されたビデオ信号、又はデプス情報を含む復号されたデプス信号のような復号された信号を出力する。デコーダ1706は、例えば、AVCデコーダであってよい。
ビデオ受信システム又は装置1700はまた、記憶ユニット1707へ通信上結合される。一実施態様において、記憶ユニット1707は受信器1702へ結合され、受信器1702は、記憶ユニット1707からのビットストリームにアクセスし、及び/又は受信したビットストリームを記憶ユニット1707へ記憶する。他の実施態様では、記憶ユニット1707はデコーダ1706へ結合され、デコーダ1706は、記憶ユニット1707からのビットストリームにアクセスし、及び/又は復号されたビットストリームを記憶ユニット1707へ記憶する。記憶ユニット1707からアクセスされるビットストリームは、異なる実施態様において、1又はそれ以上の符号化されたビットストリームを含む。記憶ユニット1707は、異なる実施態様において、標準のDVD、ブルーレイディスク、ハードドライブ、又はその他記憶装置の中の1又はそれ以上である。
デコーダ1706からの出力ビデオは、一実施態様において、プロセッサ1708へ供給される。プロセッサ1708は、一実施態様において、新しいビューのレンダリングを行うよう構成されるプロセッサである。幾つかの実施態様において、デコーダ1706はプロセッサ1708を含み、従って、プロセッサ1708の動作を実行する。他の実施態様では、プロセッサ1708は、例えば、セットトップボックス又はテレビジョンのようなダウンストリーム装置の部分である。
本願は、図2及び9乃至17のブロック/フロー図を含む複数のブロック/フロー図を提供する。当然、本願のブロック/フロー図は、処理を記載するフロー図、及び装置の機能ブロックを記載するブロック図の両方を提示する。加えて、本願は、図1及び3乃至8の絵表示を含む複数の絵表示を提供する。当然、本願の絵表示は、例示又は結果若しくは出力、及び処理を記載するフロー図の両方を提示する。
新しいモードを実施する様々な実施態様が記載されてきた。当該モードは領域拡張モードと呼ばれる。様々な実施態様は、モードテーブルにおけるシンタックスを用いて新しいモードを知らしめる。シンタックスは、一実施態様において、特定のブロックが新しい領域拡張モードにより符号化されるか、又は、むしろ、従来のモードにより符号化されるかを示すようフラグを用いることを含む。AVCは、例えば、様々な従来のモードを含む。
様々な実施態様は、様々な利点の1又はそれ以上を備えてよい。それらの利点の一部には、(i)低い複雑性、(ii)デプスエッジを保つこと、(iii)画像の平面領域を符号化するのに使用されるビットの数を減らすこと、(iv)複数のビューではなく単一のビューのみのデプス及びビデオからの情報を用いて、ビュー間のひずみ及びワーピングを防ぐこと、及び(v)単に動き情報(例えば、動きベクトル)及び符号化モードを用いるのではなく、ビデオフレームにおける実際のサンプル値を用いてデプスマップに関するエッジ情報を得ることがある。
このように、特定の特徴及び側面を備える1又はそれ以上の実施態様が提供される。特に、デプスインジケータを予測することに関連する幾つかの実施態様が提供される。なお、それらの実施態様の変形及び更なる応用が考慮され且つ本開示内に含まれ、記載される実施態様の特徴及び側面は他の実施態様のために適応されてよい。
本願で記載される実施態様及び特徴の幾つかは、AVC標準、及び/又はMVC拡張(付録H)によるAVC、及び/又はSVC拡張(付録G)によるAVCとの関連で使用されてよい。加えて、それらの実施態様及び特徴は、他の標準(既存又は将来)との関連で、又は標準を対象としない状況で使用されてよい。
本原理の「一実施形態」若しくは「実施形態」又は「一実施態様」若しくは「実施態様」との言及及びその変形は、その実施形態に関連して記載される特定の特徴、構造、特性等が本原理の少なくとも1つの実施形態において含まれることを意味する。よって、明細書の全文を通して様々な箇所で見られる「一実施形態において」若しくは「実施形態において」又は「一実施態様において」若しくは「実施態様において」との表現及び如何なる他の変形の出現も、必ずしも全てが同じ実施形態を参照しているわけではない。
加えて、本願又はその特許請求の範囲は、情報の様々な片を「決定する」と言及することがある。情報を決定することは、例えば、情報を推定すること、情報を計算すること、情報を予測すること、又はメモリから情報を取り出すことの中の1又はそれ以上を含んでよい。
更に、本願又はその特許請求の範囲は、情報の様々な片に「アクセスする」と言及することがある。情報にアクセスすることは、例えば、情報を受信すること、情報を取り出すこと(例えば、メモリ)、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報を複製すること、情報を消去すること、情報を計算すること、情報を決定すること、情報を予測すること、又は情報を推定することの中の1又はそれ以上を含んでよい。
様々な実施態様は「画像」及び/又は「ピクチャ」に言及する。語「画像」及び「ピクチャ」は、本明細書の全文を通して同義的に使用され、広義語であるよう意図される。「画像」又は「ピクチャ」は、例えば、フレームの又はフィールドの全て又は部分であってよい。語「ビデオ」は画像(又はピクチャ)のシーケンスを指す。画像又はピクチャは、例えば、様々なビデオコンポーネント又はそれらの結合のいずれかを含んでよい。そのようなコンポーネント又はそれらの結合は、例えば、輝度、クロミナンス、(YUV又はYCbCr又はYPbPrの)Y、(YUVの)U、(YUVの)V、(YCbCrの)Cb、(YCbCrの)Cr、(YPbPrの)Pb、(YPbPrの)Pr、(RGBの)赤(R)、(RGBの)緑(G)、(RGBの)青(B)、S−Video、及びそれらの成分のいずれかのネガ又はポジを含む。「画像」又は「ピクチャ」は更に、又は代替的に、例えば、典型的な2次元ビデオ、2Dビデオピクチャのための視差マップ、2Dビデオピクチャに対応するデプスマップ、又はエッジマップを含む様々な異なるタイプのコンテンツを指すことがある。
「デプスマップ」、若しくは「視差マップ」、若しくは「エッジマップ」、又は同様の語はまた、広義語であるよう意図される。マップは一般的に、例えば、特定のタイプの情報を含むピクチャを指す。しかし、マップは、その名称によって示されない他のタイプの情報を含んでよい。例えば、デプスマップは通常デプス情報を含むが、例えば、ビデオ又はエッジ情報のような他の情報を更に含んでよい。
語「隣接する」及び「隣接」は本願の全体を通して使用されている。例として、第1ブロック又はピクセルは、その第1ブロック又はピクセルが第2ブロック又はピクセルに接する場合に、第2ブロック又はピクセルに隣接すると言われる。従って、所与のブロック又はピクセルは一般的に、上下左右及び四つ角にあるブロック又はピクセルを含む8つの隣接ブロック又はピクセルを有する。
当然に、次の“/”、“及び/又は”、及び“の少なくとも1つ”のいずれかの使用は、例えば、“A/B”、“A及び/又はB”及び“A及びBの少なくとも1つ”の場合に、最初に挙げられている選択肢(A)のみの選択、又は2番目に挙げられている選択肢(B)のみの選択、又は両方の選択肢(A及びB)の選択を包含するよう意図される。更なる例として、“A、B、及び/又はC”及び“A、B、及びCの少なくとも1つ”の場合に、そのような表現は、最初に挙げられている選択肢(A)のみの選択、又は2番目に挙げられている選択肢(B)のみの選択、又は3番目に挙げられている選択肢(C)のみの選択、又は最初及び2番目に挙げられている選択肢(A及びB)のみの選択、又は最初及び3番目に挙げられている選択肢(A及びC)のみの選択、又は2番目及び3番目に挙げられている選択肢(B及びC)のみの選択、又は3つの全ての選択肢(A及びB及びC)の選択を包含するよう意図される。これは、当業者には既に知られているように、挙げられている多くの項目に関して拡張されてよい。
加えて、多くの実施態様は、エンコーダ(例えば、エンコーダ1100又は1602)、デコーダ(例えば、デコーダ1200又は1706)、デコーダからの出力を処理する後置プロセッサ(例えば、プロセッサ1708)、又はエンコーダへの入力を処理する前置プロセッサ(プロセッサ1601)の中の1又はそれ以上において実施されてよい。更に、他の実施態様が本願によって考慮される。
ここで記載される実施態様は、例えば、方法若しくは処理、装置、ソフトウェアプログラム、データストリーム、又は信号において実施されてよい。たとえ信号形態の実施態様との関連でしか説明されない(例えば、方法としてしか説明されない)としても、説明される特徴の実施態様はまた、他の形態(例えば、装置又はプログラム)において実施されてよい。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアにおいて実施されてよい。方法は、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能ロジック装置を含むプロセッサ(一般的に、プロセッシング装置を指す。)のような装置において実施されてよい。プロセッサはまた、例えば、コンピュータ、携帯電話機、ポータブル/パーソナル・デジタル・アシスタント(“PDA”)、及びエンドユーザ間の情報の通信を助ける他の装置のような通信装置を含む。
ここで記載される様々な処理及び特徴の実施は、様々な異なる設備又は用途、特に、例えば、データ符号化、データ復号化、ビュー生成、デプス若しくは視差の処理、並びに画像と関連するデプス及び/又は視差マップとの他の処理に関連する設備又は用途において具現されてよい。そのような設備の例には、エンコーダ、デコーダ、デコーダからの出力を処理する後置プロセッサ、エンコーダへの入力を処理する前置プロセッサ、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話機、PDA、及び他の通信装置がある。当然に、設備は移動可能であり、移動体に設置されてよい。
加えて、方法は、プロセッサによって実行される命令によって実施されてよく、そのような命令(及び/又は実施態様によって生成されるデータ値)は、例えば、集積回路、ソフトウェア担体、又は、例えば、ハードディスク、コンパクトディスケット(“CD”)、光ディスク(例えば、しばしばデジタル・バーサタイル・ディスク又はデジタル・ビデオ・ディスクと呼ばれるDVD)、ランダムアクセスメモリ(“RAM”)、又は読み出し専用メモリ(“ROM”)のような他の記憶装置のようなプロセッサ可読媒体に記憶されてよい。命令は、プロセッサ可読媒体において有形に実施されるアプリケーションプログラムを形成してよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、又は組み合わせにあってよい。命令は、例えば、オペレーティングシステム、別個のアプリケーション、又はそれらの組み合わせにおいて見出されてよい。プロセッサは、従って、例えば、処理を実行するよう構成される装置及び処理を実行する命令を有するプロセッサ可読媒体(例えば、記憶装置)を有する装置の両方として特徴付けられてよい。更に、プロセッサ可読媒体は、命令に加えて又はそれに代わりに、実施態様に従って生成されるデータ値を記憶してよい。
当業者に明らかなように、実施態様は、例えば、記憶又は送信され得る情報を搬送するようフォーマットされた様々な信号を生成してよい。情報は、例えば、方法を実行する命令、又は記載される実施態様の1つによって生成されるデータを含んでよい。例えば、信号は、記載される実施形態のシンタックスを書き込む又は読み出すための規則をデータとして搬送するよう、あるいは、記載される実施形態によって書き込まれる実際のシンタックス値をデータとして搬送するよう、フォーマットされてよい。そのような信号は、例えば、電磁波として(例えば、スペクトルの無線周波数部分を用いる)又はベースバンド信号として、フォーマットされてよい。フォーマッティングは、例えば、データストリーム符号化すること、及び符号化されたデータストリームにより搬送波を変調することを含んでよい。情報は、例えば、アナログ又はデジタル情報であってよい。信号は、知られているような様々な異なる有線又は無線リンクを介して送信されてよい。信号は、プロセッサ可読媒体に記憶されてよい。
多数の実施態様が記載されてきた。それでもなお、様々な変更がなされてよいことが理解されるであろう。例えば、異なる実施態様の要素は、他の実施態様を生じるよう組み合わされ、補完され、変更され、又は取り除かれてよい。加えて、当業者に明らかなように、他の構造及び処理が、開示されている構造及び処理と置き換わってよく、結果として得られる実施態様は、開示されている実施態様と少なくとも略同じ結果を達成するよう、少なくとも略同じ方法において、少なくとも略同じ機能を実行する。然るに、それら及び他の実施態様は本願によって考慮される。
上記の実施形態に加えて、以下の付記を開示する。
(付記1)
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定するステップと、
前記ビデオ画像の特定の部分に関連する目標デプスインジケータを処理するステップと
を有し、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる1つのビデオ画像の少なくとも一部分に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、方法。
(付記2)
前記基準デプスインジケータは、再構成されたデプスインジケータを有する、
付記1に記載の方法。
(付記3)
前記再構成されたデプスインジケータは、前記ビデオ画像の少なくとも一部に関連し、
前記再構成されたデプスインジケータは、前記目標デプスインジケータを有する共通の画像にある、
付記2に記載の方法。
(付記4)
前記特定の部分に関して前記セグメンテーションを決定するステップは、
前記基準デプスインジケータの基準セグメンテーションを決定するステップと、
前記特定の部分に関して前記セグメンテーションを決定するよう前記基準セグメンテーションを用いるステップと
を有する、付記1に記載の方法。
(付記5)
前記基準デプスインジケータは、前記目標デプスインジケータに隣接するデプスインジケータを有し、
前記特定の部分に関して前記セグメンテーションを決定するよう前記基準セグメンテーションを用いるステップは、
前記ビデオ画像の特定の部分の隣の部分である前記ビデオ画像の隣接部分へ前記基準セグメンテーションを適用するステップと、
増大したセグメンテーションを生成するよう前記隣接部分から前記特定の部分へ前記基準セグメンテーションを増大させるステップと
を有する、付記4に記載の方法。
(付記6)
前記基準セグメンテーションを増大させるステップは、
前記特定の部分から所与のピクセルを選択するステップと、
前記所与のピクセルの値を決定するステップと、
前記隣接部分からのピクセルを決定するステップと、
前記隣接部分からのピクセルのセグメントを決定するステップと、
前記隣接部分からのピクセルの前記セグメントへ前記所与のピクセルを割り当てるステップと
を有する、付記5に記載の方法。
(付記7)
前記隣接部分からのピクセルを決定するステップは、前記隣接部分における全てのピクセルの中で、前記所与のピクセルの値に最も近い値を有する前記隣接部分からのピクセルを決定するステップを有する、
付記6に記載の方法。
(付記8)
前記基準セグメンテーションを増大させるステップは、
前記特定の部分から所与のピクセルを選択するステップと、
前記所与のピクセルに関して前記基準セグメンテーションの特定のセグメントに対するメートル値を決定するステップと、
前記決定をされたメートル値に基づき前記特定のセグメントへ前記所与のピクセルを割り当てるステップと
を有し、
前記メートル値は、(i)前記所与のピクセルから前記特定のセグメントにおける1又はそれ以上のピクセルまでの距離と、(ii)前記所与のピクセルと前記特定のセグメントにおける前記1又はそれ以上のピクセルとの間のピクセル値の差とに基づく、
付記5に記載の方法。
(付記9)
前記目標デプスインジケータを処理するステップは、前記増大したセグメンテーションを前記目標デプスインジケータへ適用するステップを有する、
付記5に記載の方法。
(付記10)
前記目標デプスインジケータを処理するステップは、
(i)前記増大したセグメンテーションを前記目標デプスインジケータへ適用することにより得られる前記目標デプスインジケータのセグメントを(ii)前記基準デプスインジケータの前記基準セグメンテーションのセグメントと関連づけるステップと、
前記基準セグメンテーションのセグメントに関して代表値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表値を用いるステップと
を更に有する、付記9に記載の方法。
(付記11)
前記目標デプスインジケータを処理するステップは、前記代表値に基づき前記目標デプスインジケータを符号化するステップを更に有する、
付記10に記載の方法。
(付記12)
前記目標デプスインジケータを処理するステップは、前記代表値に基づき前記目標デプスインジケータを復号するステップを更に有する、
付記10に記載の方法。
(付記13)
前記代表値を決定するステップは、前記基準セグメンテーションに関して平均又は中央値の少なくとも1つを決定するステップを有する、
付記10に記載の方法。
(付記14)
前記処理するステップは、前記ビデオ画像の特定の部分に関する前記決定をされたセグメンテーションに基づき、前記目標デプスインジケータに関して1又はそれ以上の予測子を決定するステップを有する、
付記1に記載の方法。
(付記15)
前記決定をされたセグメンテーションに基づき前記予測子を決定するステップは、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用するステップと、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用することにより得られる前記目標デプスインジケータのセグメントに関して、代表デプス値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表デプス値を用いるステップと
を有する、付記14に記載の方法。
(付記16)
前記目標デプスインジケータを処理するステップは、前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを符号化するステップを有する、
付記1に記載の方法。
(付記17)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを符号化するステップは、前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用するステップを有する、
付記16に記載の方法。
(付記18)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを符号化するステップは、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用することにより得られる前記目標デプスインジケータのセグメントに関して、代表デプス値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表デプス値を用いるステップと、
前記予測子に基づき、前記目標デプスインジケータのセグメントに関して残余を決定するステップと、
前記残余を符号化するステップと
を更に有する、付記17に記載の方法。
(付記19)
前記目標デプスインジケータを処理するステップは、再構成された目標デプスインジケータを生成するよう、前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを復号するステップを有する、
付記1に記載の方法。
(付記20)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを復号するステップは、前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用するステップを有する、
付記19に記載の方法。
(付記21)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを復号するステップは、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用することにより得られる前記目標デプスインジケータのセグメントに関して、代表デプス値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表デプス値を用いるステップと、
前記予測子に基づき、前記目標デプスインジケータのセグメントに関する残余にアクセスするステップと、
前記再構成された目標デプスインジケータを生成するよう前記残余を前記予測子へ加えるステップと
を更に有する、付記20に記載の方法。
(付記22)
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定する動作と、
前記ビデオ画像の特定の部分の少なくとも一部分に関連する目標デプスインジケータを処理する動作と
を少なくも実行するよう構成され、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる少なくとも1つのビデオ画像に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、装置。
(付記23)
エンコーダ又はデコーダの1又はそれ以上を有する
付記22に記載の装置。
(付記24)
前記セグメンテーションを決定する動作と、前記目標デプスインジケータを処理する動作とを実行するよう構成されるプロセッサを有する
付記22に記載の装置。
(付記25)
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定する手段と、
前記ビデオ画像の特定の部分に関連する目標デプスインジケータを処理する手段と
を有し、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる1つのビデオ画像の少なくとも一部分に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、装置。
(付記26)
1又はそれ以上のプロセッサに、
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定するステップと、
前記ビデオ画像の特定の部分に対応する目標デプスインジケータを処理するステップと
を集合的に実行させる命令を記憶し、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる1つのビデオ画像の少なくとも一部分に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、プロセッサ可読媒体。
(付記27)
ビデオ画像の少なくとも所与の部分に関して、該所与の部分に関連するデプスインジケータに基づきセグメンテーションを決定するステップと、
前記所与の部分におけるピクセル値と、前記ビデオ画像の目標部分におけるピクセル値とに基づき、前記所与の部分から前記目標部分へ前記セグメンテーションを拡大するステップと
を有する方法。
(付記28)
デプスインジケータ画像の少なくとも目標部分へ前記拡大をされたセグメンテーションを適用するステップを更に有し、
前記デプスインジケータ画像の目標部分は、前記ビデオ画像の目標部分に関連するデプスインジケータを含む、
付記27に記載の方法。
(付記29)
前記適用をされたセグメンテーションに基づき前記デプスインジケータ画像の目標部分を符号化するステップを更に有する
付記28に記載の方法。

Claims (9)

  1. ビデオ画像に関連するデプスデータを処理する方法であって、
    デプス値の対象部分に隣接した第1隣接部分の基準セグメンテーションを決定するステップであって、前記デプス値の対象部分は前記ビデオ画像の特定の部分に対応し、前記第1隣接部分は前記ビデオ画像において前記特定の部分に隣接した第2隣接部分に対応する、ステップと、
    前記ビデオ画像の前記第2隣接部分をセグメント化するように、該第2隣接部分に前記基準セグメンテーションを適用するステップと、
    前記基準セグメンテーションを前記第2隣接部分から前記特定の部分へ広げて該特定の部分をセグメント化し、拡張セグメンテーションを得るステップと、
    前記デプス値の対象部分をセグメント化し、該対象部分の各セグメントが前記第1隣接部分の対応するセグメントと関連付けられるように、前記対象部分に前記拡張セグメンテーションを適用するステップと、
    前記第1隣接部分の各セグメントについて代表値を決定し、該代表値を、前記デプス値の対象部分の対応するセグメントにおけるデプス値についての予測子とするステップと、
    前記予測子に基づき前記デプス値の対象部分を処理するステップと
    を有し、
    前記処理するステップは、前記予測子に基づき前記デプス値の対象部分を符号化又は復号することを含む、方法。
  2. 前記拡張セグメンテーションを得るステップは、前記第2隣接部分における全てのピクセルの中から、前記特定の部分における所与のピクセルの値に最も近い値を有するピクセルを決定することを含み、
    請求項1に記載の方法。
  3. 前記拡張セグメンテーションを得るステップは、
    前記特定の部分から所与のピクセルを選択し、
    前記所与のピクセルに関して前記基準セグメンテーションの特定のセグメントに対するメートル値を決定し、
    前記決定をされたメートル値に基づき前記特定のセグメントへ前記所与のピクセルを割り当てる
    ことを含み、
    前記メートル値は、(i)前記所与のピクセルから前記特定のセグメントにおける1又はそれ以上のピクセルまでの距離と、(ii)前記所与のピクセルと前記特定のセグメントにおける前記1又はそれ以上のピクセルとの間のピクセル値の差とに基づく、
    請求項1に記載の方法。
  4. 前記代表値を決定することは、前記基準セグメンテーションに関して平均又は中央値の少なくとも1つを決定することを含む、
    請求項1に記載の方法。
  5. ビデオ画像に関連するデプスデータを処理する装置であって、
    デプス値の対象部分に隣接した第1隣接部分の基準セグメンテーションを決定する手段であって、前記デプス値の対象部分は前記ビデオ画像の特定の部分に対応し、前記第1隣接部分は前記ビデオ画像において前記特定の部分に隣接した第2隣接部分に対応する、手段と、
    前記ビデオ画像の前記第2隣接部分をセグメント化するように、該第2隣接部分に前記基準セグメンテーションを適用する手段と、
    前記基準セグメンテーションを前記第2隣接部分から前記特定の部分へ広げて該特定の部分をセグメント化し、拡張セグメンテーションを得る手段と、
    前記デプス値の対象部分をセグメント化し、該対象部分の各セグメントが前記第1隣接部分の対応するセグメントと関連付けられるように、前記対象部分に前記拡張セグメンテーションを適用する手段と、
    前記第1隣接部分の各セグメントについて代表値を決定し、該代表値を、前記デプス値の対象部分の対応するセグメントにおけるデプス値についての予測子とする手段と、
    前記予測子に基づき前記デプス値の対象部分を処理する手段と
    を有し、
    前記処理する手段は、前記予測子に基づき前記デプス値の対象部分を符号化又は復号するよう構成される、装置。
  6. 前記拡張セグメンテーションを得る手段は、前記第2隣接部分における全てのピクセルの中から、前記特定の部分における所与のピクセルの値に最も近い値を有するピクセルを決定するよう更に構成される、
    請求項5に記載の装置。
  7. 前記拡張セグメンテーションを得る手段は、
    前記特定の部分から所与のピクセルを選択し、
    前記所与のピクセルに関して前記基準セグメンテーションの特定のセグメントに対するメートル値を決定し、
    前記決定をされたメートル値に基づき前記特定のセグメントへ前記所与のピクセルを割り当てる
    よう更に構成され、
    前記メートル値は、(i)前記所与のピクセルから前記特定のセグメントにおける1又はそれ以上のピクセルまでの距離と、(ii)前記所与のピクセルと前記特定のセグメントにおける前記1又はそれ以上のピクセルとの間のピクセル値の差とに基づく、
    請求項5に記載の装置。
  8. 前記代表値を決定する手段は、前記基準セグメンテーションに関して平均又は中央値の少なくとも1つを決定するよう構成される、
    請求項5に記載の装置。
  9. プロセッサによって実行される場合に、該プロセッサに、
    ビデオ画像に関連するデプスデータを処理する方法であって、
    デプス値の対象部分に隣接した第1隣接部分の基準セグメンテーションを決定するステップであって、前記デプス値の対象部分は前記ビデオ画像の特定の部分に対応し、前記第1隣接部分は前記ビデオ画像において前記特定の部分に隣接した第2隣接部分に対応する、ステップと、
    前記ビデオ画像の前記第2隣接部分をセグメント化するように、該第2隣接部分に前記基準セグメンテーションを適用するステップと、
    前記基準セグメンテーションを前記第2隣接部分から前記特定の部分へ広げて該特定の部分をセグメント化し、拡張セグメンテーションを得るステップと、
    前記デプス値の対象部分をセグメント化し、該対象部分の各セグメントが前記第1隣接部分の対応するセグメントと関連付けられるように、前記対象部分に前記拡張セグメンテーションを適用するステップと、
    前記第1隣接部分の各セグメントについて代表値を決定し、該代表値を、前記デプス値の対象部分の対応するセグメントにおけるデプス値についての予測子とするステップと、
    前記予測子に基づき前記デプス値の対象部分を処理するステップと
    を実行させ、
    前記処理するステップは、前記予測子に基づき前記デプス値の対象部分を符号化又は復号することを含む、プログラム。
JP2014527135A 2011-08-26 2011-08-26 デプス符号化 Active JP5937212B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/049316 WO2013032423A1 (en) 2011-08-26 2011-08-26 Depth coding

Publications (2)

Publication Number Publication Date
JP2014529955A JP2014529955A (ja) 2014-11-13
JP5937212B2 true JP5937212B2 (ja) 2016-06-22

Family

ID=44545978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014527135A Active JP5937212B2 (ja) 2011-08-26 2011-08-26 デプス符号化

Country Status (6)

Country Link
US (1) US20140184744A1 (ja)
EP (1) EP2748794B1 (ja)
JP (1) JP5937212B2 (ja)
KR (1) KR101838341B1 (ja)
CN (1) CN103765474B (ja)
WO (1) WO2013032423A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120236114A1 (en) * 2011-03-18 2012-09-20 Te-Hao Chang Depth information generator for generating depth information output by only processing part of received images having different views, and related depth information generating method and depth adjusting apparatus thereof
EP4161078A1 (en) 2011-11-11 2023-04-05 GE Video Compression, LLC Effective wedgelet partition coding using spatial prediction
WO2013068566A1 (en) * 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Adaptive partition coding
EP2777286B1 (en) 2011-11-11 2017-01-04 GE Video Compression, LLC Effective wedgelet partition coding
EP3328081B1 (en) 2011-11-11 2019-10-16 GE Video Compression, LLC Effective prediction using partition coding
ES2698515T3 (es) 2013-03-15 2019-02-05 Qualcomm Inc Predictor para la intra-codificación de mapas de profundidad
US9571809B2 (en) 2013-04-12 2017-02-14 Intel Corporation Simplified depth coding with modified intra-coding for 3D video coding
US9497485B2 (en) 2013-04-12 2016-11-15 Intel Corporation Coding unit size dependent simplified depth coding for 3D video coding
BR112015023251B1 (pt) * 2013-04-12 2023-03-14 Intel Corporation Codificação de profundidade simplificada com intracodificação modificada para codificação de vídeo em 3d
WO2015000168A1 (en) 2013-07-05 2015-01-08 Mediatek Singapore Pte. Ltd. A simplified dc prediction method in intra prediction
CN103841405B (zh) * 2014-03-21 2016-07-06 华为技术有限公司 深度图像的编解码方法和编解码装置
US9736455B2 (en) * 2014-06-30 2017-08-15 Nokia Technologies Oy Method and apparatus for downscaling depth data for view plus depth data compression
US10482586B2 (en) * 2015-05-18 2019-11-19 Nokia Technologies Oy Filtering depth map image
EP3469792A1 (en) 2016-06-24 2019-04-17 Huawei Technologies Co., Ltd. Devices and methods for video coding using segmentation based partitioning of video coding blocks
KR102351542B1 (ko) * 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
US11315321B2 (en) * 2018-09-07 2022-04-26 Intel Corporation View dependent 3D reconstruction mechanism
CN109600600B (zh) * 2018-10-31 2020-11-03 万维科研有限公司 涉及深度图转换的编码器、编码方法以及三层表达式的存储方法和格式

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242255B2 (en) * 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
US8160388B2 (en) * 2008-06-17 2012-04-17 International Business Machines Corporation Spatially selective transformation of a spatially varying optical characteristic of an image in an array of pixels
KR20110117075A (ko) * 2009-01-29 2011-10-26 엘지전자 주식회사 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치
US20120008684A1 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus of encoding and decoding video signal
JP5858380B2 (ja) * 2010-12-03 2016-02-10 国立大学法人名古屋大学 仮想視点画像合成方法及び仮想視点画像合成システム
JP5357199B2 (ja) 2011-03-14 2013-12-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
JP6072678B2 (ja) * 2011-04-25 2017-02-01 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
EP2744201A4 (en) 2011-08-09 2016-03-23 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING A DEPTH CARD OF VIDEO DATA WITH MULTIPLE VIEWPOINTS AND METHOD AND DEVICE FOR DECODING THE CODED DEPTH CARD

Also Published As

Publication number Publication date
CN103765474B (zh) 2017-10-24
EP2748794A1 (en) 2014-07-02
CN103765474A (zh) 2014-04-30
KR101838341B1 (ko) 2018-04-26
KR20140056300A (ko) 2014-05-09
JP2014529955A (ja) 2014-11-13
US20140184744A1 (en) 2014-07-03
WO2013032423A1 (en) 2013-03-07
EP2748794B1 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
JP5937212B2 (ja) デプス符号化
TWI688262B (zh) 用於視訊寫碼之重疊運動補償
US8532410B2 (en) Multi-view video coding with disparity estimation based on depth information
CN110381314B (zh) 图像处理设备和方法
KR102638336B1 (ko) 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
TW201904285A (zh) 在視訊寫碼中之增強的解塊濾波設計
KR102545728B1 (ko) 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치
KR20230013146A (ko) 인트라 예측 방법 및 그 장치
KR102342870B1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR20220044766A (ko) 크로스 컴포넌트 필터링 기반 영상 코딩 장치 및 방법
KR20210118196A (ko) Ibc 모드를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
KR102592642B1 (ko) 영상 코딩 시스템에서 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
KR20220041897A (ko) 인루프 필터링 기반 영상 코딩 장치 및 방법
KR20200140896A (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019194502A1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN114982245A (zh) 基于滤波的图像编码装置和方法
KR20220041898A (ko) 적응적 루프 필터링 기반 영상 코딩 장치 및 방법
CN114303375A (zh) 使用双向预测的视频解码方法和用于该方法的装置
CN114424548A (zh) 基于调色板编码的图像或视频编码
CN114930851A (zh) 基于变换的图像编码方法及其装置
KR20210152576A (ko) 디블록킹 필터링에 기반한 영상 코딩 방법 및 그 장치
WO2022073760A1 (en) Motion coding using a geometrical model for video compression
WO2013105946A1 (en) Motion compensating transformation for video coding
KR20230168602A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN115088262A (zh) 用于发信号通知图像信息的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160511

R150 Certificate of patent or registration of utility model

Ref document number: 5937212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250