JP5937212B2 - デプス符号化 - Google Patents
デプス符号化 Download PDFInfo
- Publication number
- JP5937212B2 JP5937212B2 JP2014527135A JP2014527135A JP5937212B2 JP 5937212 B2 JP5937212 B2 JP 5937212B2 JP 2014527135 A JP2014527135 A JP 2014527135A JP 2014527135 A JP2014527135 A JP 2014527135A JP 5937212 B2 JP5937212 B2 JP 5937212B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- segment
- segmentation
- video
- adjacent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
ここでは、特定のM×Nブロックのデプス値に関して、より一般的には推定とも呼ばれる予測を生成する処理の実施態様について述べる。この実施形態において、M×Nブロックのデプス値及び隣接するデプス値のブロックと、対応するビデオが与えられる。この実施形態では、現在のM×NブロックBの予測を得るよう、領域拡張に基づく方法が提案される。図2を参照すると、領域拡張に基づく予測子が、図2において図示され且つ以下で記載される処理200に従って、生成され得る。
以下の説明は、図4によって示される上記ステップ2の実施態様の更なる詳細を提供する。
以下の説明は、図5によって示される上記ステップ5の実施態様の更なる詳細を提供する。様々な方法が、ビデオピクセルへ適用される領域拡張処理において使用されてよい。図9及び10を参照すると、2つのそのような方法が図9及び10のフローチャートにおいて示されている。
以下の説明は、図2の動作270において示される上記のステップ7の実施態様の更なる詳細を提供する。ステップ7は、上記より、図2の動作270において記載されるように(図3乃至8には図示せず。)、セグメンテーションに基づきデプスサンプルのデプスブロックBにおける夫々のデプスサンプルに関してデプス予測値を決定する。
この実施形態では、新しいデプス符号化モードが提案される。すなわち、領域拡張モードである。モードは、リファレンスとして異なる時間又は異なるビューからのデプスピクチャを用いずに、デプスピクチャの所与のブロックに関して予測を形成する。このモードを領域拡張モードと呼ぶこととする。このモードは、例えば、図11及び図12において示されるように、デプスエンコーダ/デコーダにおいて使用される。他の実施態様は、異なる時間からの及び/又は異なるビューからのリファレンスデプスピクチャを用いるよう領域拡張モードを適応させる。そのようなリファレンスデプスピクチャは、現在のデプスブロックを予測するのを助けるために、又は残余を符号化するために、異なる実施態様において使用される。
・エントロピデコーダ1206はエントロピエンコーダ1105の逆を実行し、
・逆量子化モジュール1208は量子化モジュール1104の逆を実行し、
・逆変換モジュール1210は変換モジュール1102の逆を実行する。
・インループフィルタ1214はインループフィルタ1110と同じ動作を実行し、
・イントラ予測モジュール1218はイントラ予測モジュール1122と同じ動作を実行し、
・変位補償モジュール1226は変位補償モジュール1120と同じ動作を実行し、
・領域拡張に基づく予測ブロック1230は領域拡張に基づく予測ブロック1116と同じ動作を実行する。
再び図11を参照すると、エンコーダ1100は、領域拡張モードを実施するデプスエンコーダの実施態様を提供する。エンコーダ1100の2つのブロックは特に、領域拡張モードを実施するのに関与する。それら2つのブロックは領域拡張に基づく予測ブロック1116及びビデオリファレンスバッファ1114である。それら2つのブロックの動作は先に記載されている。少なくとも1つの実施態様において、ビデオリファレンスバッファ1114は、ビデオエンコーダからの再構成されたビデオフレームがRG予測のためにアクセスされ得るように保持される点に留意されたい。
この実施態様のデコーダ側で、2Dビデオのフレームは、対応するデプスデータを復号する前に復号される。再び図12を参照すると、デコーダ1200は、デプスデータを復号するデプスデコーダの実施態様を提供する。特に、デコーダ1200は、領域拡張モードを用いて符号化されているデータを復号することができる。デコーダ1200の2つのブロックが特に、領域拡張モードにより符号化されているデプスデータを復号するのに必要とされる。それら2つのブロックは、領域拡張に基づく予測ブロック1230及びビデオリファレンスバッファ1240である。それら2つのブロックの動作は上述されている。
上記の実施形態に加えて、以下の付記を開示する。
(付記1)
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定するステップと、
前記ビデオ画像の特定の部分に関連する目標デプスインジケータを処理するステップと
を有し、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる1つのビデオ画像の少なくとも一部分に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、方法。
(付記2)
前記基準デプスインジケータは、再構成されたデプスインジケータを有する、
付記1に記載の方法。
(付記3)
前記再構成されたデプスインジケータは、前記ビデオ画像の少なくとも一部に関連し、
前記再構成されたデプスインジケータは、前記目標デプスインジケータを有する共通の画像にある、
付記2に記載の方法。
(付記4)
前記特定の部分に関して前記セグメンテーションを決定するステップは、
前記基準デプスインジケータの基準セグメンテーションを決定するステップと、
前記特定の部分に関して前記セグメンテーションを決定するよう前記基準セグメンテーションを用いるステップと
を有する、付記1に記載の方法。
(付記5)
前記基準デプスインジケータは、前記目標デプスインジケータに隣接するデプスインジケータを有し、
前記特定の部分に関して前記セグメンテーションを決定するよう前記基準セグメンテーションを用いるステップは、
前記ビデオ画像の特定の部分の隣の部分である前記ビデオ画像の隣接部分へ前記基準セグメンテーションを適用するステップと、
増大したセグメンテーションを生成するよう前記隣接部分から前記特定の部分へ前記基準セグメンテーションを増大させるステップと
を有する、付記4に記載の方法。
(付記6)
前記基準セグメンテーションを増大させるステップは、
前記特定の部分から所与のピクセルを選択するステップと、
前記所与のピクセルの値を決定するステップと、
前記隣接部分からのピクセルを決定するステップと、
前記隣接部分からのピクセルのセグメントを決定するステップと、
前記隣接部分からのピクセルの前記セグメントへ前記所与のピクセルを割り当てるステップと
を有する、付記5に記載の方法。
(付記7)
前記隣接部分からのピクセルを決定するステップは、前記隣接部分における全てのピクセルの中で、前記所与のピクセルの値に最も近い値を有する前記隣接部分からのピクセルを決定するステップを有する、
付記6に記載の方法。
(付記8)
前記基準セグメンテーションを増大させるステップは、
前記特定の部分から所与のピクセルを選択するステップと、
前記所与のピクセルに関して前記基準セグメンテーションの特定のセグメントに対するメートル値を決定するステップと、
前記決定をされたメートル値に基づき前記特定のセグメントへ前記所与のピクセルを割り当てるステップと
を有し、
前記メートル値は、(i)前記所与のピクセルから前記特定のセグメントにおける1又はそれ以上のピクセルまでの距離と、(ii)前記所与のピクセルと前記特定のセグメントにおける前記1又はそれ以上のピクセルとの間のピクセル値の差とに基づく、
付記5に記載の方法。
(付記9)
前記目標デプスインジケータを処理するステップは、前記増大したセグメンテーションを前記目標デプスインジケータへ適用するステップを有する、
付記5に記載の方法。
(付記10)
前記目標デプスインジケータを処理するステップは、
(i)前記増大したセグメンテーションを前記目標デプスインジケータへ適用することにより得られる前記目標デプスインジケータのセグメントを(ii)前記基準デプスインジケータの前記基準セグメンテーションのセグメントと関連づけるステップと、
前記基準セグメンテーションのセグメントに関して代表値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表値を用いるステップと
を更に有する、付記9に記載の方法。
(付記11)
前記目標デプスインジケータを処理するステップは、前記代表値に基づき前記目標デプスインジケータを符号化するステップを更に有する、
付記10に記載の方法。
(付記12)
前記目標デプスインジケータを処理するステップは、前記代表値に基づき前記目標デプスインジケータを復号するステップを更に有する、
付記10に記載の方法。
(付記13)
前記代表値を決定するステップは、前記基準セグメンテーションに関して平均又は中央値の少なくとも1つを決定するステップを有する、
付記10に記載の方法。
(付記14)
前記処理するステップは、前記ビデオ画像の特定の部分に関する前記決定をされたセグメンテーションに基づき、前記目標デプスインジケータに関して1又はそれ以上の予測子を決定するステップを有する、
付記1に記載の方法。
(付記15)
前記決定をされたセグメンテーションに基づき前記予測子を決定するステップは、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用するステップと、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用することにより得られる前記目標デプスインジケータのセグメントに関して、代表デプス値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表デプス値を用いるステップと
を有する、付記14に記載の方法。
(付記16)
前記目標デプスインジケータを処理するステップは、前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを符号化するステップを有する、
付記1に記載の方法。
(付記17)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを符号化するステップは、前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用するステップを有する、
付記16に記載の方法。
(付記18)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを符号化するステップは、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用することにより得られる前記目標デプスインジケータのセグメントに関して、代表デプス値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表デプス値を用いるステップと、
前記予測子に基づき、前記目標デプスインジケータのセグメントに関して残余を決定するステップと、
前記残余を符号化するステップと
を更に有する、付記17に記載の方法。
(付記19)
前記目標デプスインジケータを処理するステップは、再構成された目標デプスインジケータを生成するよう、前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを復号するステップを有する、
付記1に記載の方法。
(付記20)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを復号するステップは、前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用するステップを有する、
付記19に記載の方法。
(付記21)
前記決定をされたセグメンテーションに基づき前記目標デプスインジケータを復号するステップは、
前記目標デプスインジケータへ前記決定をされたセグメンテーションを適用することにより得られる前記目標デプスインジケータのセグメントに関して、代表デプス値を決定するステップと、
前記目標デプスインジケータのセグメントにおけるデプス値のための予測子として前記代表デプス値を用いるステップと、
前記予測子に基づき、前記目標デプスインジケータのセグメントに関する残余にアクセスするステップと、
前記再構成された目標デプスインジケータを生成するよう前記残余を前記予測子へ加えるステップと
を更に有する、付記20に記載の方法。
(付記22)
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定する動作と、
前記ビデオ画像の特定の部分の少なくとも一部分に関連する目標デプスインジケータを処理する動作と
を少なくも実行するよう構成され、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる少なくとも1つのビデオ画像に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、装置。
(付記23)
エンコーダ又はデコーダの1又はそれ以上を有する
付記22に記載の装置。
(付記24)
前記セグメンテーションを決定する動作と、前記目標デプスインジケータを処理する動作とを実行するよう構成されるプロセッサを有する
付記22に記載の装置。
(付記25)
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定する手段と、
前記ビデオ画像の特定の部分に関連する目標デプスインジケータを処理する手段と
を有し、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる1つのビデオ画像の少なくとも一部分に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、装置。
(付記26)
1又はそれ以上のプロセッサに、
基準デプスインジケータに基づき、ビデオ画像シーケンスに含まれるビデオ画像の特定の部分に関してセグメンテーションを決定するステップと、
前記ビデオ画像の特定の部分に対応する目標デプスインジケータを処理するステップと
を集合的に実行させる命令を記憶し、
前記基準デプスインジケータは、前記ビデオ画像シーケンスに含まれる1つのビデオ画像の少なくとも一部分に関連するデプスインジケータであり、
前記処理は、前記ビデオ画像の特定の部分における前記決定をされたセグメンテーションに基づく、プロセッサ可読媒体。
(付記27)
ビデオ画像の少なくとも所与の部分に関して、該所与の部分に関連するデプスインジケータに基づきセグメンテーションを決定するステップと、
前記所与の部分におけるピクセル値と、前記ビデオ画像の目標部分におけるピクセル値とに基づき、前記所与の部分から前記目標部分へ前記セグメンテーションを拡大するステップと
を有する方法。
(付記28)
デプスインジケータ画像の少なくとも目標部分へ前記拡大をされたセグメンテーションを適用するステップを更に有し、
前記デプスインジケータ画像の目標部分は、前記ビデオ画像の目標部分に関連するデプスインジケータを含む、
付記27に記載の方法。
(付記29)
前記適用をされたセグメンテーションに基づき前記デプスインジケータ画像の目標部分を符号化するステップを更に有する
付記28に記載の方法。
Claims (9)
- ビデオ画像に関連するデプスデータを処理する方法であって、
デプス値の対象部分に隣接した第1隣接部分の基準セグメンテーションを決定するステップであって、前記デプス値の対象部分は前記ビデオ画像の特定の部分に対応し、前記第1隣接部分は前記ビデオ画像において前記特定の部分に隣接した第2隣接部分に対応する、ステップと、
前記ビデオ画像の前記第2隣接部分をセグメント化するように、該第2隣接部分に前記基準セグメンテーションを適用するステップと、
前記基準セグメンテーションを前記第2隣接部分から前記特定の部分へ広げて該特定の部分をセグメント化し、拡張セグメンテーションを得るステップと、
前記デプス値の対象部分をセグメント化し、該対象部分の各セグメントが前記第1隣接部分の対応するセグメントと関連付けられるように、前記対象部分に前記拡張セグメンテーションを適用するステップと、
前記第1隣接部分の各セグメントについて代表値を決定し、該代表値を、前記デプス値の対象部分の対応するセグメントにおけるデプス値についての予測子とするステップと、
前記予測子に基づき前記デプス値の対象部分を処理するステップと
を有し、
前記処理するステップは、前記予測子に基づき前記デプス値の対象部分を符号化又は復号することを含む、方法。 - 前記拡張セグメンテーションを得るステップは、前記第2隣接部分における全てのピクセルの中から、前記特定の部分における所与のピクセルの値に最も近い値を有するピクセルを決定することを含み、
請求項1に記載の方法。 - 前記拡張セグメンテーションを得るステップは、
前記特定の部分から所与のピクセルを選択し、
前記所与のピクセルに関して前記基準セグメンテーションの特定のセグメントに対するメートル値を決定し、
前記決定をされたメートル値に基づき前記特定のセグメントへ前記所与のピクセルを割り当てる
ことを含み、
前記メートル値は、(i)前記所与のピクセルから前記特定のセグメントにおける1又はそれ以上のピクセルまでの距離と、(ii)前記所与のピクセルと前記特定のセグメントにおける前記1又はそれ以上のピクセルとの間のピクセル値の差とに基づく、
請求項1に記載の方法。 - 前記代表値を決定することは、前記基準セグメンテーションに関して平均又は中央値の少なくとも1つを決定することを含む、
請求項1に記載の方法。 - ビデオ画像に関連するデプスデータを処理する装置であって、
デプス値の対象部分に隣接した第1隣接部分の基準セグメンテーションを決定する手段であって、前記デプス値の対象部分は前記ビデオ画像の特定の部分に対応し、前記第1隣接部分は前記ビデオ画像において前記特定の部分に隣接した第2隣接部分に対応する、手段と、
前記ビデオ画像の前記第2隣接部分をセグメント化するように、該第2隣接部分に前記基準セグメンテーションを適用する手段と、
前記基準セグメンテーションを前記第2隣接部分から前記特定の部分へ広げて該特定の部分をセグメント化し、拡張セグメンテーションを得る手段と、
前記デプス値の対象部分をセグメント化し、該対象部分の各セグメントが前記第1隣接部分の対応するセグメントと関連付けられるように、前記対象部分に前記拡張セグメンテーションを適用する手段と、
前記第1隣接部分の各セグメントについて代表値を決定し、該代表値を、前記デプス値の対象部分の対応するセグメントにおけるデプス値についての予測子とする手段と、
前記予測子に基づき前記デプス値の対象部分を処理する手段と
を有し、
前記処理する手段は、前記予測子に基づき前記デプス値の対象部分を符号化又は復号するよう構成される、装置。 - 前記拡張セグメンテーションを得る手段は、前記第2隣接部分における全てのピクセルの中から、前記特定の部分における所与のピクセルの値に最も近い値を有するピクセルを決定するよう更に構成される、
請求項5に記載の装置。 - 前記拡張セグメンテーションを得る手段は、
前記特定の部分から所与のピクセルを選択し、
前記所与のピクセルに関して前記基準セグメンテーションの特定のセグメントに対するメートル値を決定し、
前記決定をされたメートル値に基づき前記特定のセグメントへ前記所与のピクセルを割り当てる
よう更に構成され、
前記メートル値は、(i)前記所与のピクセルから前記特定のセグメントにおける1又はそれ以上のピクセルまでの距離と、(ii)前記所与のピクセルと前記特定のセグメントにおける前記1又はそれ以上のピクセルとの間のピクセル値の差とに基づく、
請求項5に記載の装置。 - 前記代表値を決定する手段は、前記基準セグメンテーションに関して平均又は中央値の少なくとも1つを決定するよう構成される、
請求項5に記載の装置。 - プロセッサによって実行される場合に、該プロセッサに、
ビデオ画像に関連するデプスデータを処理する方法であって、
デプス値の対象部分に隣接した第1隣接部分の基準セグメンテーションを決定するステップであって、前記デプス値の対象部分は前記ビデオ画像の特定の部分に対応し、前記第1隣接部分は前記ビデオ画像において前記特定の部分に隣接した第2隣接部分に対応する、ステップと、
前記ビデオ画像の前記第2隣接部分をセグメント化するように、該第2隣接部分に前記基準セグメンテーションを適用するステップと、
前記基準セグメンテーションを前記第2隣接部分から前記特定の部分へ広げて該特定の部分をセグメント化し、拡張セグメンテーションを得るステップと、
前記デプス値の対象部分をセグメント化し、該対象部分の各セグメントが前記第1隣接部分の対応するセグメントと関連付けられるように、前記対象部分に前記拡張セグメンテーションを適用するステップと、
前記第1隣接部分の各セグメントについて代表値を決定し、該代表値を、前記デプス値の対象部分の対応するセグメントにおけるデプス値についての予測子とするステップと、
前記予測子に基づき前記デプス値の対象部分を処理するステップと
を実行させ、
前記処理するステップは、前記予測子に基づき前記デプス値の対象部分を符号化又は復号することを含む、プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2011/049316 WO2013032423A1 (en) | 2011-08-26 | 2011-08-26 | Depth coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014529955A JP2014529955A (ja) | 2014-11-13 |
JP5937212B2 true JP5937212B2 (ja) | 2016-06-22 |
Family
ID=44545978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014527135A Active JP5937212B2 (ja) | 2011-08-26 | 2011-08-26 | デプス符号化 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140184744A1 (ja) |
EP (1) | EP2748794B1 (ja) |
JP (1) | JP5937212B2 (ja) |
KR (1) | KR101838341B1 (ja) |
CN (1) | CN103765474B (ja) |
WO (1) | WO2013032423A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120236114A1 (en) * | 2011-03-18 | 2012-09-20 | Te-Hao Chang | Depth information generator for generating depth information output by only processing part of received images having different views, and related depth information generating method and depth adjusting apparatus thereof |
EP4161078A1 (en) | 2011-11-11 | 2023-04-05 | GE Video Compression, LLC | Effective wedgelet partition coding using spatial prediction |
WO2013068566A1 (en) * | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Adaptive partition coding |
EP2777286B1 (en) | 2011-11-11 | 2017-01-04 | GE Video Compression, LLC | Effective wedgelet partition coding |
EP3328081B1 (en) | 2011-11-11 | 2019-10-16 | GE Video Compression, LLC | Effective prediction using partition coding |
ES2698515T3 (es) | 2013-03-15 | 2019-02-05 | Qualcomm Inc | Predictor para la intra-codificación de mapas de profundidad |
US9571809B2 (en) | 2013-04-12 | 2017-02-14 | Intel Corporation | Simplified depth coding with modified intra-coding for 3D video coding |
US9497485B2 (en) | 2013-04-12 | 2016-11-15 | Intel Corporation | Coding unit size dependent simplified depth coding for 3D video coding |
BR112015023251B1 (pt) * | 2013-04-12 | 2023-03-14 | Intel Corporation | Codificação de profundidade simplificada com intracodificação modificada para codificação de vídeo em 3d |
WO2015000168A1 (en) | 2013-07-05 | 2015-01-08 | Mediatek Singapore Pte. Ltd. | A simplified dc prediction method in intra prediction |
CN103841405B (zh) * | 2014-03-21 | 2016-07-06 | 华为技术有限公司 | 深度图像的编解码方法和编解码装置 |
US9736455B2 (en) * | 2014-06-30 | 2017-08-15 | Nokia Technologies Oy | Method and apparatus for downscaling depth data for view plus depth data compression |
US10482586B2 (en) * | 2015-05-18 | 2019-11-19 | Nokia Technologies Oy | Filtering depth map image |
EP3469792A1 (en) | 2016-06-24 | 2019-04-17 | Huawei Technologies Co., Ltd. | Devices and methods for video coding using segmentation based partitioning of video coding blocks |
KR102351542B1 (ko) * | 2017-06-23 | 2022-01-17 | 삼성전자주식회사 | 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치 |
US11315321B2 (en) * | 2018-09-07 | 2022-04-26 | Intel Corporation | View dependent 3D reconstruction mechanism |
CN109600600B (zh) * | 2018-10-31 | 2020-11-03 | 万维科研有限公司 | 涉及深度图转换的编码器、编码方法以及三层表达式的存储方法和格式 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242255B2 (en) * | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
US8160388B2 (en) * | 2008-06-17 | 2012-04-17 | International Business Machines Corporation | Spatially selective transformation of a spatially varying optical characteristic of an image in an array of pixels |
KR20110117075A (ko) * | 2009-01-29 | 2011-10-26 | 엘지전자 주식회사 | 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치 |
US20120008684A1 (en) * | 2010-07-09 | 2012-01-12 | Samsung Electronics Co., Ltd. | Method and apparatus of encoding and decoding video signal |
JP5858380B2 (ja) * | 2010-12-03 | 2016-02-10 | 国立大学法人名古屋大学 | 仮想視点画像合成方法及び仮想視点画像合成システム |
JP5357199B2 (ja) | 2011-03-14 | 2013-12-04 | 日本電信電話株式会社 | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム |
JP6072678B2 (ja) * | 2011-04-25 | 2017-02-01 | シャープ株式会社 | 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム |
EP2744201A4 (en) | 2011-08-09 | 2016-03-23 | Samsung Electronics Co Ltd | METHOD AND DEVICE FOR CODING A DEPTH CARD OF VIDEO DATA WITH MULTIPLE VIEWPOINTS AND METHOD AND DEVICE FOR DECODING THE CODED DEPTH CARD |
-
2011
- 2011-08-26 CN CN201180073077.6A patent/CN103765474B/zh active Active
- 2011-08-26 EP EP11752059.3A patent/EP2748794B1/en active Active
- 2011-08-26 WO PCT/US2011/049316 patent/WO2013032423A1/en active Application Filing
- 2011-08-26 KR KR1020147005148A patent/KR101838341B1/ko active IP Right Grant
- 2011-08-26 JP JP2014527135A patent/JP5937212B2/ja active Active
- 2011-08-26 US US14/239,918 patent/US20140184744A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN103765474B (zh) | 2017-10-24 |
EP2748794A1 (en) | 2014-07-02 |
CN103765474A (zh) | 2014-04-30 |
KR101838341B1 (ko) | 2018-04-26 |
KR20140056300A (ko) | 2014-05-09 |
JP2014529955A (ja) | 2014-11-13 |
US20140184744A1 (en) | 2014-07-03 |
WO2013032423A1 (en) | 2013-03-07 |
EP2748794B1 (en) | 2017-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5937212B2 (ja) | デプス符号化 | |
TWI688262B (zh) | 用於視訊寫碼之重疊運動補償 | |
US8532410B2 (en) | Multi-view video coding with disparity estimation based on depth information | |
CN110381314B (zh) | 图像处理设备和方法 | |
KR102638336B1 (ko) | 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치 | |
TW201904285A (zh) | 在視訊寫碼中之增強的解塊濾波設計 | |
KR102545728B1 (ko) | 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치 | |
KR20230013146A (ko) | 인트라 예측 방법 및 그 장치 | |
KR102342870B1 (ko) | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 | |
KR20220044766A (ko) | 크로스 컴포넌트 필터링 기반 영상 코딩 장치 및 방법 | |
KR20210118196A (ko) | Ibc 모드를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 | |
KR102592642B1 (ko) | 영상 코딩 시스템에서 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치 | |
KR20220041897A (ko) | 인루프 필터링 기반 영상 코딩 장치 및 방법 | |
KR20200140896A (ko) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 | |
WO2019194502A1 (ko) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 | |
CN114982245A (zh) | 基于滤波的图像编码装置和方法 | |
KR20220041898A (ko) | 적응적 루프 필터링 기반 영상 코딩 장치 및 방법 | |
CN114303375A (zh) | 使用双向预测的视频解码方法和用于该方法的装置 | |
CN114424548A (zh) | 基于调色板编码的图像或视频编码 | |
CN114930851A (zh) | 基于变换的图像编码方法及其装置 | |
KR20210152576A (ko) | 디블록킹 필터링에 기반한 영상 코딩 방법 및 그 장치 | |
WO2022073760A1 (en) | Motion coding using a geometrical model for video compression | |
WO2013105946A1 (en) | Motion compensating transformation for video coding | |
KR20230168602A (ko) | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 | |
CN115088262A (zh) | 用于发信号通知图像信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140822 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150915 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5937212 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |