JP2016512000A5 - - Google Patents

Download PDF

Info

Publication number
JP2016512000A5
JP2016512000A5 JP2015559300A JP2015559300A JP2016512000A5 JP 2016512000 A5 JP2016512000 A5 JP 2016512000A5 JP 2015559300 A JP2015559300 A JP 2015559300A JP 2015559300 A JP2015559300 A JP 2015559300A JP 2016512000 A5 JP2016512000 A5 JP 2016512000A5
Authority
JP
Japan
Prior art keywords
temporal
picture
current macroblock
block
neighboring blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015559300A
Other languages
English (en)
Other versions
JP6165893B2 (ja
JP2016512000A (ja
Filing date
Publication date
Priority claimed from US14/189,177 external-priority patent/US9237345B2/en
Application filed filed Critical
Publication of JP2016512000A publication Critical patent/JP2016512000A/ja
Publication of JP2016512000A5 publication Critical patent/JP2016512000A5/ja
Application granted granted Critical
Publication of JP6165893B2 publication Critical patent/JP6165893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (36)

  1. 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを復号する方法であって、
    従属ビューのテクスチャ優先のコーディングを用いて生成された3D−AVC準拠ビデオコーディングプロセスにおいてコーディングされたビットストリームを受信することと、
    前記3D−AVC準拠ビデオコーディングプロセスにおいて前記従属ビューのうちの1つの従属ビューのテクスチャビュー成分を復号することと、ここにおいて、前記テクスチャビュー成分を復号することは、
    第1の時間的ピクチャを選択すること、ここにおいて、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    第2の時間的ピクチャを選択すること、ここにおいて、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    現在のマクロブロックのうちの少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内のビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために前記テクスチャビュー成分内の前記現在のマクロブロックの1つまたは複数の隣接ブロックの動き情報を評価すること、ここにおいて、前記1つまたは複数の隣接ブロックは、空間的隣接ブロックと、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャのうちの少なくとも一方における少なくとも1つの時間的隣接ブロックとを備える、
    ここにおいて、前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの前記動き情報を評価することは、
    前記現在のマクロブロックの1つまたは複数の空間的隣接ブロックを評価する前に、前記現在のマクロブロックの少なくとも1つの時間的隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つまでだけの時間的ピクチャにおける前記現在のマクロブロックの1つまたは複数の時間的隣接ブロックを評価することを備え、ここにおいて、前記少なくとも1つの時間的隣接ブロックは、前記2つの時間的ピクチャのうちの1つにおいて存在し、前記2つの時間的ピクチャは、第1の時間的ピクチャと第2の時間的ピクチャを備え、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備え、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックブロックに対する視差ベクトルを導出すること、および
    前記導出され視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを備える、
    前記テクスチャビュー成分を復号することに続いて前記テクスチャビュー成分に対応する深度ビュー成分を復号することとを備える、方法。
  2. 前記視差ベクトルを導出するために前記深度ビュー成分を使用することなく、前記導出された視差ベクトルを利用して1つまたは複数のコーディングツールを実装することをさらに備える、請求項1に記載の方法。
  3. 動き情報を評価することが、
    前記現在のマクロブロックの前記少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの前記第1の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックだけの動き情報を評価することと、
    前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、前記2つの参照ピクチャリストのうちの前記第2の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックの動き情報の前記評価を回避することとを備える、請求項1に記載の方法。
  4. 1つまたは複数の時間的隣接ブロック動き情報を評価することが、
    前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価することを備え、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項1に記載の方法。
  5. 動き情報を評価することが、
    1つまたは複数の時間的隣接ブロックを評価した後、最大4つまでの空間的隣接ブロックの動き情報を評価することをさらに備える、請求項1に記載の方法。
  6. 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項5に記載の方法。
  7. 前記4つの空間的隣接ブロックが、
    前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項5に記載の方法。
  8. 視差ベクトルを導出することが、
    前記視差ベクトルの水平成分を、前記視差動きベクトルの水平成分に等しく設定することと、
    前記視差ベクトルの垂直成分をゼロに等しく設定することとを備える、請求項1に記載の方法。
  9. 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを符号化する方法であって、
    3D−AVC準拠ビデオコーディングプロセスにおいて従属ビューのテクスチャビュー成分を符号化することと、ここにおいて、前記テクスチャビュー成分を符号化することは、
    第1の時間的ピクチャを選択すること、ここにおいて、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    第2の時間的ピクチャを選択すること、ここにおいて、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    現在のマクロブロックの少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内のビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために前記テクスチャビュー成分内の前記現在のマクロブロックの1つまたは複数の隣接ブロックの動き情報を評価すること、ここにおいて、前記1つまたは複数の隣接ブロックは、空間的隣接ブロックと、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャのうちの少なくとも一方における少なくとも1つの時間的隣接ブロックとを備える、
    ここにおいて、前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの前記動き情報を評価することは、
    前記現在のマクロブロックの1つまたは複数の空間的隣接ブロックを評価する前に、前記現在のマクロブロックの少なくとも1つの時間的隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つまでだけの時間的ピクチャにおける前記現在のマクロブロックの1つまたは複数の時間的隣接ブロックを評価することを備え、ここにおいて、前記少なくとも1つの時間的隣接ブロックは、前記2つの時間的ピクチャのうちの1つにおいて存在し、前記2つの時間的ピクチャは、第1の時間的ピクチャと第2の時間的ピクチャを備え、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備え、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックブロックに対する視差ベクトルを導出すること、および
    前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを備える、
    前記テクスチャビュー成分を符号化することに続いて前記テクスチャビュー成分に対応する深度ビュー成分を符号化することと、
    前記符号化されたテクスチャビュー成分と前記符号化された深度ビュー成分とを含む従属ビューのテクスチャ優先のコーディングを用いてコーディングされたビットストリームを出力のために生成することと備える、方法。
  10. 前記視差ベクトルを導出するために前記深度ビュー成分を使用することなく、前記導出された視差ベクトルを利用して1つまたは複数のコーディングツールを実装することをさらに備える、請求項9に記載の方法。
  11. 動き情報を評価することが、
    前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの前記第1の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの前記1つまたは複数の隣接ブロックだけの動き情報を評価することと、
    前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、前記2つの参照ピクチャリストのうちの前記第2の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの動き情報の前記評価を回避することとを備える、請求項9に記載の方法。
  12. 1つまたは複数の時間的隣接ブロック動き情報を評価することが、
    前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価することを備え、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項9に記載の方法。
  13. 動き情報を評価することが、
    1つまたは複数の時間的隣接ブロックを評価した後、最大4つまでの空間的隣接ブロックの動き情報を評価することを備える、請求項9に記載の方法。
  14. 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項13に記載の方法。
  15. 前記4つの空間的隣接ブロックが、
    前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項13に記載の方法。
  16. 視差ベクトルを導出することが、
    前記視差ベクトルの水平成分を前記視差動きベクトルの水平成分に等しく設定することと、
    前記視差ベクトルの垂直成分をゼロに等しく設定することとを備える、請求項9に記載の方法。
  17. 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを符号化するためのデバイスであって、
    ビデオデータを記憶するように構成されたメモリと、
    ビデオエンコーダとを備え、前記ビデオエンコーダが、1つまたは複数のプロセッサを備え、および
    3DAVC準拠ビデオコーディングプロセスにおいて、前記ビデオデータの従属ビューのテクスチャビュー成分を符号化することと、ここにおいて、前記テクスチャビュー成分を符号化するために、前記ビデオエンコーダが、
    少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内でビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの第1の参照ピクチャリストを指す動きベクトルを有する前記テクスチャビュー成分内の現在のマクロブロックの1つまたは複数の隣接ブロックだけの動き情報を評価し、前記2つの参照ピクチャリストのうちの第2の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの隣接ブロックの動き情報を評価することを回避すること、および
    前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックに対する視差ベクトルを導出すること、
    前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを行うように構成される、
    前記テクスチャビュー成分を符号化することに続いて、前記テクスチャビュー成分に対応する、前記ビデオデータの深度ビュー成分を符号化することとを行うように構成される、デバイス。
  18. 記ビデオエンコーダが、前記ビデオエンコーダによって符号化された前記テクスチャビュー成分を含み、前記ビデオエンコーダによって符号化された前記深度ビュー成分を含む従属ビューの、テクスチャ優先のコーディングを用いてコーディングされたビットストリームを出力のために生成するように構成される、請求項17に記載のデバイス。
  19. 前記テクスチャビュー成分を符号化するために、前記ビデオエンコーダが、
    第1の時間的ピクチャを選択することと、ここにおいて、前記第1の時間的ピクチャは、前記第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    第2の時間的ピクチャを選択することと、ここにおいて、前記第2の時間的ピクチャは、前記第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、を行うように構成され、
    動き情報を評価するために、前記ビデオコーダが、前記第1の参照ピクチャリストを指す少なくとも1つのブロックに対する動きベクトルに基づいて、前記第1の時間的ピクチャまたは前記第2の時間的ピクチャの少なくとも一方の中の前記少なくとも1つのブロックの動き情報を評価するように構成される、請求項17に記載のデバイス。
  20. 動き情報を評価するために、前記ビデオエンコーダが、
    第1の選択された時間的ピクチャまたは第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価するように構成され、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項19に記載のデバイス。
  21. 動き情報を評価するために、前記ビデオエンコーダが、
    最大4つまでの空間的隣接ブロックの動き情報を評価するように構成される、請求項17に記載のデバイス。
  22. 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項21に記載のデバイス。
  23. 前記4つの空間的隣接ブロックが、
    前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項21に記載のデバイス。
  24. 視差ベクトルを導出するために、前記ビデオエンコーダが、
    前記視差ベクトルの水平成分を前記視差動きベクトルの水平成分に等しく設定することと、
    前記視差ベクトルの垂直成分をゼロに等しく設定することとを行うように構成される、請求項17に記載のデバイス。
  25. ワイヤレス通信デバイスを備える、請求項17に記載のデバイス。
  26. その上に記憶された命令を有するコンピュータ可読記憶媒体であって、前記命令が、実行されると、3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを符号化するためのデバイスのビデオエンコーダの1つまたは複数のプロセッサに、
    前記3D−AVC準拠ビデオコーディングプロセスにおいて従属ビューのうちの1つの前記従属ビューのテクスチャビュー成分を符号化することと、ここにおいて、前記1つまたは複数のプロセッサに前記テクスチャビュー成分を符号化させる前記命令は、前記1つまたは複数のプロセッサに、
    少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内でビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの第1の参照ピクチャリストを指す動きベクトルを有する前記テクスチャビュー成分内の現在のマクロブロックの1つまたは複数の隣接ブロックだけの動き情報を評価し、前記2つの参照ピクチャリストのうちの第2の参照ピクチャリストを指す動きベクトルを有する前記現在のマクロブロックの隣接ブロックの動き情報を評価することを回避すること、および
    前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックに対する視差ベクトルを導出すること、
    前記導出され視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを行わせる命令を備える、
    前記テクスチャビュー成分を符号化することに続いて前記テクスチャビュー成分に対応する深度ビュー成分を符号化することとを行わせる、コンピュータ可読記憶媒体。
  27. 前記1つまたは複数のプロセッサに、
    第1の時間的ピクチャを選択することと、ここにおいて、前記第1の時間的ピクチャは、前記第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    第2の時間的ピクチャを選択することと、ここにおいて、前記第2の時間的ピクチャは、前記第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、を行わせる命令をさらに備え、
    前記1つまたは複数のプロセッサに動き情報を評価させる前記命令が、前記1つまたは複数のプロセッサに、前記第1の参照ピクチャリストを指す少なくとも1つのブロックに対する動きベクトルに基づいて、前記第1の時間的ピクチャまたは前記第2の時間的ピクチャの少なくとも一方の中の前記少なくとも1つのブロックの動き情報を評価させる命令を備える、請求項26に記載のコンピュータ可読記憶媒体。
  28. 記ビデオエンコーダの前記1つまたは複数のプロセッサに、
    前記ビデオエンコーダによって符号化された前記テクスチャビュー成分を含み、前記ビデオエンコーダによって符号化された前記深度ビュー成分を含む従属ビューのテクスチャ優先のコーディングを用いてコーディングされたビットストリームを出力のために生成させる命令をさらに備える、請求項26に記載のコンピュータ可読記憶媒体。
  29. 3Dアドバンストビデオコーディング(3D−AVC)に対するビデオデータを復号するためのデバイスであって、
    ビデオデータを記憶するように構成されたメモリと、
    ビデオデコーダとを備え、前記ビデオデコーダが、1つまたは複数のプロセッサを備え、および
    従属ビューのテクスチャ優先のコーディングを用いて生成された3D−AVC準拠ビデオコーディングプロセスにおいてコーディングされたビットストリームを受信することと、
    前記3D−AVC準拠ビデオコーディングプロセスにおいて前記従属ビューのうちの1つの従属ビューのテクスチャビュー成分を復号することと、ここにおいて、前記テクスチャビュー成分を復号するために、前記ビデオデコーダが、
    第1の時間的ピクチャを選択すること、ここにおいて、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    第2の時間的ピクチャを選択すること、ここにおいて、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    現在のマクロブロックのうちの少なくとも1つの隣接ブロックが、前記従属ビュー以外のビュー内のビュー間参照ピクチャを指す視差動きベクトルを用いてビュー間予測されるかどうかを決定するために前記テクスチャビュー成分内の前記現在のマクロブロックの1つまたは複数の隣接ブロックの動き情報を評価すること、ここにおいて、前記1つまたは複数の隣接ブロックは、空間的隣接ブロックと、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャのうちの少なくとも一方における少なくとも1つの時間的隣接ブロックとを備える、
    ここにおいて、前記現在のマクロブロックの前記1つまたは複数の隣接ブロックの前記動き情報を評価するために、前記ビデオデコーダが、
    前記現在のマクロブロックの1つまたは複数の空間的隣接ブロックを評価する前に、前記現在のマクロブロックの少なくとも1つの時間的隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つまでだけの時間的ピクチャにおける前記現在のマクロブロックの1つまたは複数の時間的隣接ブロックを評価するように構成され、ここにおいて、前記少なくとも1つの時間的隣接ブロックは、前記2つの時間的ピクチャのうちの1つにおいて存在し、前記2つの時間的ピクチャは、第1の時間的ピクチャと第2の時間的ピクチャを備え、前記第1の時間的ピクチャは、第1の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備え、前記第2の時間的ピクチャは、第2の参照ピクチャリストの第1のエントリにおいて識別されたピクチャを備える、
    前記評価された隣接ブロックのうちの1つに対する前記視差動きベクトルに基づいて前記現在のマクロブロックブロックに対する視差ベクトルを導出すること、および
    前記導出された視差ベクトルを前記現在のマクロブロック内の各ブロックに割り当てることを行うように構成される、
    前記テクスチャビュー成分を復号することに続いて、前記テクスチャビュー成分に対応する深度ビュー成分を復号することとを行うように構成される、デバイス
  30. 前記ビデオデコーダは、前記視差ベクトルを導出するために前記深度ビュー成分を使用することなく、前記導出された視差ベクトルを利用して1つまたは複数のコーディングツールを実装するように構成される、請求項29に記載のデバイス。
  31. 動き情報を評価するために、前記ビデオデコーダが、
    前記現在のマクロブロックの前記少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、2つの参照ピクチャリストのうちの前記第1の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックだけの動き情報を評価し、
    前記現在のマクロブロックの少なくとも1つの隣接ブロックが前記視差動きベクトルを用いてビュー間予測されるかどうかを決定するために、前記2つの参照ピクチャリストのうちの前記第2の参照ピクチャリストを指す動きベクトルを有する、前記現在のマクロブロックの、前記1つまたは複数の隣接ブロックの動き情報の前記評価を回避するように構成される、請求項29に記載のデバイス。
  32. 1つまたは複数の時間的隣接ブロック動き情報を評価するために、前記ビデオコーダが、
    前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの少なくとも一方の中の1つの右下ブロックだけに対する動き情報を評価するように構成され、前記右下ブロックが、前記現在のマクロブロックの下部の右側の位置で、前記第1の選択された時間的ピクチャまたは前記第2の選択された時間的ピクチャの前記少なくとも一方の中に位置するブロックを備える、請求項29に記載のデバイス。
  33. 動き情報を評価するために、前記ビデオデコーダは、
    1つまたは複数の時間的隣接ブロックを評価した後、最大4つまでの動き情報を評価するように構成される、請求項29に記載のデバイス。
  34. 前記4つの空間的隣接ブロックのうちの3つが、H.264/AVCビデオコーディング規格における動き予測のために使用されるのと同じ隣接ブロックを備える、請求項33に記載のデバイス。
  35. 前記4つの空間的隣接ブロックが、
    前記現在のマクロブロックの左に位置するブロックと、前記現在のマクロブロックの上に位置するブロックと、前記現在のマクロブロックの左上に位置するブロックと、前記現在のマクロブロックの右上に位置するブロックとを備える、請求項33に記載のデバイス。
  36. 視差ベクトルを導出するために、前記ビデオデコーダが、
    前記視差ベクトルの水平成分を、前記視差動きベクトルの水平成分に等しく設定することと、
    前記視差ベクトルの垂直成分をゼロに等しく設定することとを行うように構成される、請求項29に記載のデバイス。
JP2015559300A 2013-02-26 2014-02-26 3d−avcにおける隣接ブロックベースの視差ベクトル導出 Active JP6165893B2 (ja)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US201361769716P 2013-02-26 2013-02-26
US61/769,716 2013-02-26
US201361770263P 2013-02-27 2013-02-27
US61/770,263 2013-02-27
US201361772321P 2013-03-04 2013-03-04
US61/772,321 2013-03-04
US201361803384P 2013-03-19 2013-03-19
US61/803,384 2013-03-19
US201361815656P 2013-04-24 2013-04-24
US61/815,656 2013-04-24
US14/189,177 2014-02-25
US14/189,177 US9237345B2 (en) 2013-02-26 2014-02-25 Neighbor block-based disparity vector derivation in 3D-AVC
PCT/US2014/018679 WO2014134170A2 (en) 2013-02-26 2014-02-26 Neighbor block-based disparity vector derivation in 3d-avc

Publications (3)

Publication Number Publication Date
JP2016512000A JP2016512000A (ja) 2016-04-21
JP2016512000A5 true JP2016512000A5 (ja) 2016-06-09
JP6165893B2 JP6165893B2 (ja) 2017-07-19

Family

ID=51387733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015559300A Active JP6165893B2 (ja) 2013-02-26 2014-02-26 3d−avcにおける隣接ブロックベースの視差ベクトル導出

Country Status (6)

Country Link
US (1) US9237345B2 (ja)
EP (1) EP2962464B1 (ja)
JP (1) JP6165893B2 (ja)
KR (1) KR101708586B1 (ja)
CN (1) CN105009592B (ja)
WO (1) WO2014134170A2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SI2658263T1 (sl) * 2010-12-22 2023-03-31 Lg Electronics Inc. Postopek notranjega napovedovanja in naprava, ki uporablja ta postopek
US9549180B2 (en) * 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
CN104412597B (zh) * 2012-07-05 2017-09-08 联发科技股份有限公司 用于3d视频编码的统一视差矢量推导的方法及装置
FR2993084A1 (fr) * 2012-07-09 2014-01-10 France Telecom Procede de codage video par prediction du partitionnement d'un bloc courant, procede de decodage, dispositifs de codage et de decodage et programmes d'ordinateur correspondants
CN104704819B (zh) * 2012-10-03 2016-12-21 联发科技股份有限公司 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置
US9781416B2 (en) 2013-02-26 2017-10-03 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
US9521389B2 (en) 2013-03-06 2016-12-13 Qualcomm Incorporated Derived disparity vector in 3D video coding
US9900576B2 (en) 2013-03-18 2018-02-20 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
WO2014166063A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Default vector for disparity vector derivation for 3d video coding
EP2932720A4 (en) * 2013-04-10 2016-07-27 Mediatek Inc METHOD AND APPARATUS FOR DIVIDING VECTOR DIVIDER FOR THREE-DIMENSIONAL AND MULTI-VIEW VIDEO CODING
WO2014166119A1 (en) * 2013-04-12 2014-10-16 Mediatek Inc. Stereo compatibility high level syntax
US9667990B2 (en) 2013-05-31 2017-05-30 Qualcomm Incorporated Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation
RU2661331C2 (ru) * 2014-10-08 2018-07-13 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство кодирования изображений с эффектом глубины при кодировании видео
WO2016056755A1 (ko) * 2014-10-08 2016-04-14 엘지전자 주식회사 3d 비디오 부호화/복호화 방법 및 장치
CN118200540A (zh) * 2018-04-01 2024-06-14 Lg电子株式会社 图像编码/解码方法、数据的发送方法以及存储介质
US10645380B2 (en) * 2018-07-09 2020-05-05 Tencent America LLC Method and apparatus for video coding

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100823287B1 (ko) * 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
CN101222639B (zh) * 2007-01-09 2010-04-21 华为技术有限公司 多视点视频技术中的视间预测方法、编码器和解码器
WO2009096912A1 (en) * 2008-01-29 2009-08-06 Thomson Licensing Method and system for converting 2d image data to stereoscopic image data
US8300881B2 (en) * 2009-09-16 2012-10-30 Broadcom Corporation Method and system for watermarking 3D content
US9781416B2 (en) 2013-02-26 2017-10-03 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
US9900576B2 (en) 2013-03-18 2018-02-20 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding
US9930363B2 (en) * 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding

Similar Documents

Publication Publication Date Title
JP2016512000A5 (ja)
JP2016517681A5 (ja)
JP2016517682A5 (ja)
JP2016514927A5 (ja)
JP2016511605A5 (ja)
JP2016500497A5 (ja)
JP2016504864A5 (ja)
JP2015515227A5 (ja)
JP2018509032A5 (ja)
JP2016513919A5 (ja)
JP2016530848A5 (ja)
JP2016059067A5 (ja)
RU2014141677A (ru) Кодирование вектора движения и би-предсказание в hevc и его расширениях
SG11201803682RA (en) Encoding apparatus and encoding method, decoding apparatus and decoding method
KR102227279B1 (ko) 비디오 부호화/복호화 방법 및 장치
JP2016524408A5 (ja)
JP2018522466A5 (ja)
JP2015511090A5 (ja)
JP2015514342A5 (ja)
JP2015516763A5 (ja)
JP2015529065A5 (ja)
JP2014528200A5 (ja)
WO2013068547A3 (en) Efficient multi-view coding using depth-map estimate and update
CA2692250A1 (en) Video encoding and decoding methods using residual prediction, and corresponding apparatuses
WO2014134174A3 (en) Neighboring block disparity vector derivation in 3d video coding