JP2016512000A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2016512000A5 JP2016512000A5 JP2015559300A JP2015559300A JP2016512000A5 JP 2016512000 A5 JP2016512000 A5 JP 2016512000A5 JP 2015559300 A JP2015559300 A JP 2015559300A JP 2015559300 A JP2015559300 A JP 2015559300A JP 2016512000 A5 JP2016512000 A5 JP 2016512000A5
- Authority
- JP
- Japan
- Prior art keywords
- temporal
- picture
- current macroblock
- block
- neighboring blocks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002123 temporal effect Effects 0.000 claims 82
- 230000001419 dependent Effects 0.000 claims 14
- 238000000034 method Methods 0.000 claims 7
- 230000000875 corresponding Effects 0.000 claims 5
- 238000011156 evaluation Methods 0.000 claims 3
Claims (36)
- 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを復号する方法であって、
従属ビューのテクスチャ優先のコーディングを用いて生成された3D−AVC準拠ビデオコーディングプロセスにおいてコーディングされたビットストリームを受信することと、
前記3D−AVC準拠ビデオコーディングプロセスにおいて前記従属ビューのうちの1つの従属ビューのテクスチャビュー成分を復号することと、ここにおいて、前記テクスチャビュー成分を復号することは、
第1の時間的ピクチャを選択すること、ここにおいて、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
第2の時間的ピクチャを選択すること、ここにおいて、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
現在のマクロブロックのうちの少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内のビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために前記テクスチャビュー成分内の前記現在のマクロブロックの1つまたは複数の隣接ブロックの動き情報を評価すること、ここにおいて、前記1つまたは複数の隣接ブロックは、空間的隣接ブロックと、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャのうちの少なくとも一方における少なくとも1つの時間的隣接ブロックとを備える、
ここにおいて、前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの前記動き情報を評価することは、
前記現在のマクロブロックの1つまたは複数の空間的隣接ブロックを評価する前に、前記現在のマクロブロックの少なくとも1つの時間的隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つまでだけの時間的ピクチャにおける前記現在のマクロブロックの1つまたは複数の時間的隣接ブロックを評価することを備え、ここにおいて、前記少なくとも1つの時間的隣接ブロックは、前記2つの時間的ピクチャのうちの1つにおいて存在し、前記2つの時間的ピクチャは、第1の時間的ピクチャと第2の時間的ピクチャを備え、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備え、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックブロックに対する視差ベクトルを導出すること、および
前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを備える、
前記テクスチャビュー成分を復号することに続いて前記テクスチャビュー成分に対応する深度ビュー成分を復号することとを備える、方法。 - 前記視差ベクトルを導出するために前記深度ビュー成分を使用することなく、前記導出された視差ベクトルを利用して1つまたは複数のコーディングツールを実装することをさらに備える、請求項1に記載の方法。
- 動き情報を評価することが、
前記現在のマクロブロックの前記少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの前記第1の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックだけの動き情報を評価することと、
前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、前記2つの参照ピクチャリストのうちの前記第2の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックの動き情報の前記評価を回避することとを備える、請求項1に記載の方法。 - 1つまたは複数の時間的隣接ブロック動き情報を評価することが、
前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価することを備え、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項1に記載の方法。 - 動き情報を評価することが、
1つまたは複数の時間的隣接ブロックを評価した後、最大4つまでの空間的隣接ブロックの動き情報を評価することをさらに備える、請求項1に記載の方法。 - 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項5に記載の方法。
- 前記4つの空間的隣接ブロックが、
前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項5に記載の方法。 - 視差ベクトルを導出することが、
前記視差ベクトルの水平成分を、前記視差動きベクトルの水平成分に等しく設定することと、
前記視差ベクトルの垂直成分をゼロに等しく設定することとを備える、請求項1に記載の方法。 - 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを符号化する方法であって、
3D−AVC準拠ビデオコーディングプロセスにおいて従属ビューのテクスチャビュー成分を符号化することと、ここにおいて、前記テクスチャビュー成分を符号化することは、
第1の時間的ピクチャを選択すること、ここにおいて、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
第2の時間的ピクチャを選択すること、ここにおいて、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
現在のマクロブロックの少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内のビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために前記テクスチャビュー成分内の前記現在のマクロブロックの1つまたは複数の隣接ブロックの動き情報を評価すること、ここにおいて、前記1つまたは複数の隣接ブロックは、空間的隣接ブロックと、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャのうちの少なくとも一方における少なくとも1つの時間的隣接ブロックとを備える、
ここにおいて、前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの前記動き情報を評価することは、
前記現在のマクロブロックの1つまたは複数の空間的隣接ブロックを評価する前に、前記現在のマクロブロックの少なくとも1つの時間的隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つまでだけの時間的ピクチャにおける前記現在のマクロブロックの1つまたは複数の時間的隣接ブロックを評価することを備え、ここにおいて、前記少なくとも1つの時間的隣接ブロックは、前記2つの時間的ピクチャのうちの1つにおいて存在し、前記2つの時間的ピクチャは、第1の時間的ピクチャと第2の時間的ピクチャを備え、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備え、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックブロックに対する視差ベクトルを導出すること、および
前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを備える、
前記テクスチャビュー成分を符号化することに続いて前記テクスチャビュー成分に対応する深度ビュー成分を符号化することと、
前記符号化されたテクスチャビュー成分と前記符号化された深度ビュー成分とを含む従属ビューのテクスチャ優先のコーディングを用いてコーディングされたビットストリームを出力のために生成することと備える、方法。 - 前記視差ベクトルを導出するために前記深度ビュー成分を使用することなく、前記導出された視差ベクトルを利用して1つまたは複数のコーディングツールを実装することをさらに備える、請求項9に記載の方法。
- 動き情報を評価することが、
前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの前記第1の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの前記1つまたは複数の隣接ブロックだけの動き情報を評価することと、
前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、前記2つの参照ピクチャリストのうちの前記第2の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの動き情報の前記評価を回避することとを備える、請求項9に記載の方法。 - 1つまたは複数の時間的隣接ブロック動き情報を評価することが、
前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価することを備え、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項9に記載の方法。 - 動き情報を評価することが、
1つまたは複数の時間的隣接ブロックを評価した後、最大4つまでの空間的隣接ブロックの動き情報を評価することを備える、請求項9に記載の方法。 - 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項13に記載の方法。
- 前記4つの空間的隣接ブロックが、
前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項13に記載の方法。 - 視差ベクトルを導出することが、
前記視差ベクトルの水平成分を前記視差動きベクトルの水平成分に等しく設定することと、
前記視差ベクトルの垂直成分をゼロに等しく設定することとを備える、請求項9に記載の方法。 - 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを符号化するためのデバイスであって、
ビデオデータを記憶するように構成されたメモリと、
ビデオエンコーダとを備え、前記ビデオエンコーダが、1つまたは複数のプロセッサを備え、および
3DAVC準拠ビデオコーディングプロセスにおいて、前記ビデオデータの従属ビューのテクスチャビュー成分を符号化することと、ここにおいて、前記テクスチャビュー成分を符号化するために、前記ビデオエンコーダが、
少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内でビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの第1の参照ピクチャリストを指す動きベクトルを有する前記テクスチャビュー成分内の現在のマクロブロックの1つまたは複数の隣接ブロックだけの動き情報を評価し、前記2つの参照ピクチャリストのうちの第2の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの隣接ブロックの動き情報を評価することを回避すること、および
前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックに対する視差ベクトルを導出すること、
前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを行うように構成される、
前記テクスチャビュー成分を符号化することに続いて、前記テクスチャビュー成分に対応する、前記ビデオデータの深度ビュー成分を符号化することとを行うように構成される、デバイス。 - 前記ビデオエンコーダが、前記ビデオエンコーダによって符号化された前記テクスチャビュー成分を含み、前記ビデオエンコーダによって符号化された前記深度ビュー成分を含む従属ビューの、テクスチャ優先のコーディングを用いてコーディングされたビットストリームを出力のために生成するように構成される、請求項17に記載のデバイス。
- 前記テクスチャビュー成分を符号化するために、前記ビデオエンコーダが、
第1の時間的ピクチャを選択することと、ここにおいて、前記第1の時間的ピクチャは、前記第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
第2の時間的ピクチャを選択することと、ここにおいて、前記第2の時間的ピクチャは、前記第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、を行うように構成され、
動き情報を評価するために、前記ビデオコーダが、前記第1の参照ピクチャリストを指す少なくとも1つのブロックに対する動きベクトルに基づいて、前記第1の時間的ピクチャまたは前記第2の時間的ピクチャの少なくとも一方の中の前記少なくとも1つのブロックの動き情報を評価するように構成される、請求項17に記載のデバイス。 - 動き情報を評価するために、前記ビデオエンコーダが、
第1の選択された時間的ピクチャまたは第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価するように構成され、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項19に記載のデバイス。 - 動き情報を評価するために、前記ビデオエンコーダが、
最大4つまでの空間的隣接ブロックの動き情報を評価するように構成される、請求項17に記載のデバイス。 - 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項21に記載のデバイス。
- 前記4つの空間的隣接ブロックが、
前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項21に記載のデバイス。 - 視差ベクトルを導出するために、前記ビデオエンコーダが、
前記視差ベクトルの水平成分を前記視差動きベクトルの水平成分に等しく設定することと、
前記視差ベクトルの垂直成分をゼロに等しく設定することとを行うように構成される、請求項17に記載のデバイス。 - ワイヤレス通信デバイスを備える、請求項17に記載のデバイス。
- その上に記憶された命令を有するコンピュータ可読記憶媒体であって、前記命令が、実行されると、3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを符号化するためのデバイスのビデオエンコーダの1つまたは複数のプロセッサに、
前記3D−AVC準拠ビデオコーディングプロセスにおいて従属ビューのうちの1つの前記従属ビューのテクスチャビュー成分を符号化することと、ここにおいて、前記1つまたは複数のプロセッサに前記テクスチャビュー成分を符号化させる前記命令は、前記1つまたは複数のプロセッサに、
少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内でビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの第1の参照ピクチャリストを指す動きベクトルを有する前記テクスチャビュー成分内の現在のマクロブロックの1つまたは複数の隣接ブロックだけの動き情報を評価し、前記2つの参照ピクチャリストのうちの第2の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの隣接ブロックの動き情報を評価することを回避すること、および
前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックに対する視差ベクトルを導出すること、
前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを行わせる命令を備える、
前記テクスチャビュー成分を符号化することに続いて前記テクスチャビュー成分に対応する深度ビュー成分を符号化することとを行わせる、コンピュータ可読記憶媒体。 - 前記1つまたは複数のプロセッサに、
第1の時間的ピクチャを選択することと、ここにおいて、前記第1の時間的ピクチャは、前記第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
第2の時間的ピクチャを選択することと、ここにおいて、前記第2の時間的ピクチャは、前記第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、を行わせる命令をさらに備え、
前記1つまたは複数のプロセッサに動き情報を評価させる前記命令が、前記1つまたは複数のプロセッサに、前記第1の参照ピクチャリストを指す少なくとも1つのブロックに対する動きベクトルに基づいて、前記第1の時間的ピクチャまたは前記第2の時間的ピクチャの少なくとも一方の中の前記少なくとも1つのブロックの動き情報を評価させる命令を備える、請求項26に記載のコンピュータ可読記憶媒体。 - 前記ビデオエンコーダの前記1つまたは複数のプロセッサに、
前記ビデオエンコーダによって符号化された前記テクスチャビュー成分を含み、前記ビデオエンコーダによって符号化された前記深度ビュー成分を含む従属ビューのテクスチャ優先のコーディングを用いてコーディングされたビットストリームを出力のために生成させる命令をさらに備える、請求項26に記載のコンピュータ可読記憶媒体。 - 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを復号するためのデバイスであって、
ビデオデータを記憶するように構成されたメモリと、
ビデオデコーダとを備え、前記ビデオデコーダが、1つまたは複数のプロセッサを備え、および
従属ビューのテクスチャ優先のコーディングを用いて生成された3D−AVC準拠ビデオコーディングプロセスにおいてコーディングされたビットストリームを受信することと、
前記3D−AVC準拠ビデオコーディングプロセスにおいて前記従属ビューのうちの1つの従属ビューのテクスチャビュー成分を復号することと、ここにおいて、前記テクスチャビュー成分を復号するために、前記ビデオデコーダが、
第1の時間的ピクチャを選択すること、ここにおいて、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
第2の時間的ピクチャを選択すること、ここにおいて、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
現在のマクロブロックのうちの少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内のビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために前記テクスチャビュー成分内の前記現在のマクロブロックの1つまたは複数の隣接ブロックの動き情報を評価すること、ここにおいて、前記1つまたは複数の隣接ブロックは、空間的隣接ブロックと、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャのうちの少なくとも一方における少なくとも1つの時間的隣接ブロックとを備える、
ここにおいて、前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの前記動き情報を評価するために、前記ビデオデコーダが、
前記現在のマクロブロックの1つまたは複数の空間的隣接ブロックを評価する前に、前記現在のマクロブロックの少なくとも1つの時間的隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つまでだけの時間的ピクチャにおける前記現在のマクロブロックの1つまたは複数の時間的隣接ブロックを評価するように構成され、ここにおいて、前記少なくとも1つの時間的隣接ブロックは、前記2つの時間的ピクチャのうちの1つにおいて存在し、前記2つの時間的ピクチャは、第1の時間的ピクチャと第2の時間的ピクチャを備え、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備え、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックブロックに対する視差ベクトルを導出すること、および
前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを行うように構成される、
前記テクスチャビュー成分を復号することに続いて、前記テクスチャビュー成分に対応する深度ビュー成分を復号することとを行うように構成される、デバイス。 - 前記ビデオデコーダは、前記視差ベクトルを導出するために前記深度ビュー成分を使用することなく、前記導出された視差ベクトルを利用して1つまたは複数のコーディングツールを実装するように構成される、請求項29に記載のデバイス。
- 動き情報を評価するために、前記ビデオデコーダが、
前記現在のマクロブロックの前記少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの前記第1の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックだけの動き情報を評価し、
前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、前記2つの参照ピクチャリストのうちの前記第2の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックの動き情報の前記評価を回避するように構成される、請求項29に記載のデバイス。 - 1つまたは複数の時間的隣接ブロック動き情報を評価するために、前記ビデオコーダが、
前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価するように構成され、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項29に記載のデバイス。 - 動き情報を評価するために、前記ビデオデコーダは、
1つまたは複数の時間的隣接ブロックを評価した後、最大4つまでの動き情報を評価するように構成される、請求項29に記載のデバイス。 - 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項33に記載のデバイス。
- 前記4つの空間的隣接ブロックが、
前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項33に記載のデバイス。 - 視差ベクトルを導出するために、前記ビデオデコーダが、
前記視差ベクトルの水平成分を、前記視差動きベクトルの水平成分に等しく設定することと、
前記視差ベクトルの垂直成分をゼロに等しく設定することとを行うように構成される、請求項29に記載のデバイス。
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361769716P | 2013-02-26 | 2013-02-26 | |
US61/769,716 | 2013-02-26 | ||
US201361770263P | 2013-02-27 | 2013-02-27 | |
US61/770,263 | 2013-02-27 | ||
US201361772321P | 2013-03-04 | 2013-03-04 | |
US61/772,321 | 2013-03-04 | ||
US201361803384P | 2013-03-19 | 2013-03-19 | |
US61/803,384 | 2013-03-19 | ||
US201361815656P | 2013-04-24 | 2013-04-24 | |
US61/815,656 | 2013-04-24 | ||
US14/189,177 | 2014-02-25 | ||
US14/189,177 US9237345B2 (en) | 2013-02-26 | 2014-02-25 | Neighbor block-based disparity vector derivation in 3D-AVC |
PCT/US2014/018679 WO2014134170A2 (en) | 2013-02-26 | 2014-02-26 | Neighbor block-based disparity vector derivation in 3d-avc |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016512000A JP2016512000A (ja) | 2016-04-21 |
JP2016512000A5 true JP2016512000A5 (ja) | 2016-06-09 |
JP6165893B2 JP6165893B2 (ja) | 2017-07-19 |
Family
ID=51387733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015559300A Active JP6165893B2 (ja) | 2013-02-26 | 2014-02-26 | 3d−avcにおける隣接ブロックベースの視差ベクトル導出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9237345B2 (ja) |
EP (1) | EP2962464B1 (ja) |
JP (1) | JP6165893B2 (ja) |
KR (1) | KR101708586B1 (ja) |
CN (1) | CN105009592B (ja) |
WO (1) | WO2014134170A2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SI2658263T1 (sl) * | 2010-12-22 | 2023-03-31 | Lg Electronics Inc. | Postopek notranjega napovedovanja in naprava, ki uporablja ta postopek |
US9549180B2 (en) * | 2012-04-20 | 2017-01-17 | Qualcomm Incorporated | Disparity vector generation for inter-view prediction for video coding |
CN104412597B (zh) * | 2012-07-05 | 2017-09-08 | 联发科技股份有限公司 | 用于3d视频编码的统一视差矢量推导的方法及装置 |
FR2993084A1 (fr) * | 2012-07-09 | 2014-01-10 | France Telecom | Procede de codage video par prediction du partitionnement d'un bloc courant, procede de decodage, dispositifs de codage et de decodage et programmes d'ordinateur correspondants |
CN104704819B (zh) * | 2012-10-03 | 2016-12-21 | 联发科技股份有限公司 | 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置 |
US9781416B2 (en) | 2013-02-26 | 2017-10-03 | Qualcomm Incorporated | Neighboring block disparity vector derivation in 3D video coding |
US9521389B2 (en) | 2013-03-06 | 2016-12-13 | Qualcomm Incorporated | Derived disparity vector in 3D video coding |
US9900576B2 (en) | 2013-03-18 | 2018-02-20 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
WO2014166068A1 (en) * | 2013-04-09 | 2014-10-16 | Mediatek Inc. | Refinement of view synthesis prediction for 3-d video coding |
WO2014166063A1 (en) * | 2013-04-09 | 2014-10-16 | Mediatek Inc. | Default vector for disparity vector derivation for 3d video coding |
EP2932720A4 (en) * | 2013-04-10 | 2016-07-27 | Mediatek Inc | METHOD AND APPARATUS FOR DIVIDING VECTOR DIVIDER FOR THREE-DIMENSIONAL AND MULTI-VIEW VIDEO CODING |
WO2014166119A1 (en) * | 2013-04-12 | 2014-10-16 | Mediatek Inc. | Stereo compatibility high level syntax |
US9667990B2 (en) | 2013-05-31 | 2017-05-30 | Qualcomm Incorporated | Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation |
RU2661331C2 (ru) * | 2014-10-08 | 2018-07-13 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Способ и устройство кодирования изображений с эффектом глубины при кодировании видео |
WO2016056755A1 (ko) * | 2014-10-08 | 2016-04-14 | 엘지전자 주식회사 | 3d 비디오 부호화/복호화 방법 및 장치 |
CN118200540A (zh) * | 2018-04-01 | 2024-06-14 | Lg电子株式会社 | 图像编码/解码方法、数据的发送方法以及存储介质 |
US10645380B2 (en) * | 2018-07-09 | 2020-05-05 | Tencent America LLC | Method and apparatus for video coding |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100823287B1 (ko) * | 2007-01-03 | 2008-04-21 | 삼성전자주식회사 | 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치 |
CN101222639B (zh) * | 2007-01-09 | 2010-04-21 | 华为技术有限公司 | 多视点视频技术中的视间预测方法、编码器和解码器 |
WO2009096912A1 (en) * | 2008-01-29 | 2009-08-06 | Thomson Licensing | Method and system for converting 2d image data to stereoscopic image data |
US8300881B2 (en) * | 2009-09-16 | 2012-10-30 | Broadcom Corporation | Method and system for watermarking 3D content |
US9781416B2 (en) | 2013-02-26 | 2017-10-03 | Qualcomm Incorporated | Neighboring block disparity vector derivation in 3D video coding |
US9900576B2 (en) | 2013-03-18 | 2018-02-20 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
US9930363B2 (en) * | 2013-04-12 | 2018-03-27 | Nokia Technologies Oy | Harmonized inter-view and view synthesis prediction for 3D video coding |
-
2014
- 2014-02-25 US US14/189,177 patent/US9237345B2/en active Active
- 2014-02-26 JP JP2015559300A patent/JP6165893B2/ja active Active
- 2014-02-26 CN CN201480009389.4A patent/CN105009592B/zh not_active Expired - Fee Related
- 2014-02-26 WO PCT/US2014/018679 patent/WO2014134170A2/en active Application Filing
- 2014-02-26 EP EP14710470.7A patent/EP2962464B1/en active Active
- 2014-02-26 KR KR1020157025852A patent/KR101708586B1/ko active IP Right Grant
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016512000A5 (ja) | ||
JP2016517681A5 (ja) | ||
JP2016517682A5 (ja) | ||
JP2016514927A5 (ja) | ||
JP2016511605A5 (ja) | ||
JP2016500497A5 (ja) | ||
JP2016504864A5 (ja) | ||
JP2015515227A5 (ja) | ||
JP2018509032A5 (ja) | ||
JP2016513919A5 (ja) | ||
JP2016530848A5 (ja) | ||
JP2016059067A5 (ja) | ||
RU2014141677A (ru) | Кодирование вектора движения и би-предсказание в hevc и его расширениях | |
SG11201803682RA (en) | Encoding apparatus and encoding method, decoding apparatus and decoding method | |
KR102227279B1 (ko) | 비디오 부호화/복호화 방법 및 장치 | |
JP2016524408A5 (ja) | ||
JP2018522466A5 (ja) | ||
JP2015511090A5 (ja) | ||
JP2015514342A5 (ja) | ||
JP2015516763A5 (ja) | ||
JP2015529065A5 (ja) | ||
JP2014528200A5 (ja) | ||
WO2013068547A3 (en) | Efficient multi-view coding using depth-map estimate and update | |
CA2692250A1 (en) | Video encoding and decoding methods using residual prediction, and corresponding apparatuses | |
WO2014134174A3 (en) | Neighboring block disparity vector derivation in 3d video coding |