JP5844392B2 - ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp) - Google Patents
ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp) Download PDFInfo
- Publication number
- JP5844392B2 JP5844392B2 JP2013557717A JP2013557717A JP5844392B2 JP 5844392 B2 JP5844392 B2 JP 5844392B2 JP 2013557717 A JP2013557717 A JP 2013557717A JP 2013557717 A JP2013557717 A JP 2013557717A JP 5844392 B2 JP5844392 B2 JP 5844392B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- video
- mvp
- frame
- video block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/197—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Description
次いで、MVP_mv1は、MVP候補としてscaled_mv0を追加することによって更新され得、MVP_mv1は、可能なMVP候補のリストを次のように拡張する。
従って、mv1は、新しい候補リストMVP_mv1に基づいて符号化され得る。この場合、エンコーダが3つの候補のMVD(mv1MVP_mv1(i),i=0,1,2)を比較した場合、MVDの結果は{(−8,−1),(−7,5),(−3,1)}のように表され得る。従って、この例では、付加予測子(即ち、mv1を予測するために使用されるmv0のスケーリングバージョン)は、最も小さいMVDを与え、それにより、コード化効率が改善され得る。従って、scaled_mv0が、他の可能なMVP候補に対する最も良好な圧縮を達成した場合、デコーダが、mv1を予測するためにscaled_mv0を識別、生成及び使用することができるように、インデックスが、符号化ビットストリームの一部として出力され得る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号する方法であって、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第2の動きベクトルに関連する第2のMVDを受信することと、第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVPが、前記第1の動きベクトルに基づいて定義される、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することとを備える、方法。
[2] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項1に記載の方法。
[3] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項1に記載の方法。
[4] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項1に記載の方法。
[5] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項1に記載の方法。
[6] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項1に記載の方法。
[7] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項1に記載の方法。
[8] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項1に記載の方法。
[9] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、前記4分木区分方式を定義するLCUシンタックスデータを受信することと、前記双方向予測インターモードを定義する、前記CUについてのモード情報を受信することとを更に備える、請求項1に記載の方法。
[10] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、前記双方向予測インターモードを定義する、前記PUについてのモード情報を受信することとを更に備える、請求項1に記載の方法。
[11] 前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号することを更に備える、請求項1に記載の方法。
[12] 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化する方法であって、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、前記第1のMVPを識別する第1のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成することと、前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することとを備える、方法。
[13] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項12に記載の方法。
[14] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項12に記載の方法。
[15] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項12に記載の方法。
[16] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項12に記載の方法。
[17] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項12に記載の方法。
[18] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項12に記載の方法。
[19] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項12に記載の方法。
[20] 前記現在ビデオブロックは、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、前記HEVC規格に従って定義された前記CUの予測単位(PU)とのうちの1つを備える、請求項12に記載の方法。
[21] ビデオデータを復号するビデオ復号装置であって、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第2の動きベクトルに関連する第2のMVDを受信することと、第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVPが、前記第1の動きベクトルに基づいて定義される、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することとを行うように構成されたビデオデコーダを備える、ビデオ復号装置。
[22] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項21に記載のビデオ復号装置。
[23] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項21に記載のビデオ復号装置。
[24] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項21に記載のビデオ復号装置。
[25] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
[26] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
[27] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
[28] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
[29] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、前記4分木区分方式を定義するLCUシンタックスデータを受信することと、前記双方向予測インターモードを定義する、前記CUについてのモード情報を受信することとを更に備える、請求項21に記載のビデオ復号装置。
[30] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、前記ビデオデコーダが、前記双方向予測インターモードを定義する、前記PUについてのモード情報を受信する、請求項21に記載のビデオ復号装置。
[31] 前記ビデオデコーダが、前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号する、請求項21に記載のビデオ復号装置。
[32] 前記ビデオデコーダが、前記第1のMVDと前記第1のインデックスと前記第2のMVDと前記第2のインデックスとを受信し、エントロピー復号するように構成されたエントロピー復号ユニットと、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成し、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するように構成された予測ユニットとを含む、請求項21に記載のビデオ復号装置。
[33] 集積回路と、マイクロプロセッサと、ビデオデコーダを含むワイヤレス通信機器とのうちの少なくとも1つを備える、請求項21に記載のビデオ復号装置。
[34] ビデオデータを符号化するビデオ符号化装置であって、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用される前記第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、前記第1のMVPを識別する第1のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用される前記第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成することと、前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することとを行うように構成されたビデオエンコーダを備える、ビデオ符号化装置。
[35] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項34に記載のビデオ符号化装置。
[36] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項34に記載のビデオ符号化装置。
[37] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項34に記載のビデオ符号化装置。
[38] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
[39] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
[40] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
[41] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
[42] 前記現在ビデオブロックは、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、前記HEVC規格に従って定義された前記CUの予測単位(PU)とのうちの1つを備える、請求項34に記載のビデオ符号化装置。
[43] 集積回路と、マイクロプロセッサと、ビデオエンコーダを含むワイヤレス通信機器とのうちの少なくとも1つを備える、請求項34に記載のビデオ符号化装置。
[44] 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号するための装置であって、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信するための手段と、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信するための手段と、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成するための手段と、前記第2の動きベクトルに関連する第2のMVDを受信するための手段と、第2のMVPを識別する第2のインデックスを受信するための手段と、ここで前記第2のMVPが、前記第1の動きベクトルに基づいて定義される、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するための手段とを備える、装置。
[45] 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化するための装置であって、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定するための手段と、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別するための手段と、前記第1のMVPを識別する第1のインデックスを生成するための手段と、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成するための手段と、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定するための手段と、動きベクトルの第2のセットに基づいて第2のMVPを識別するための手段と、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成するための手段と、前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成するための手段と、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力するための手段とを備える、装置。
[46] 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体であって、前記命令は前記プロセッサに、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信すると、及び第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信すると、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第2の動きベクトルに関連する第2のMVDを受信すると、及び前記第1の動きベクトルに基づいて定義された第2のMVPを識別する第2のインデックスを受信すると、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することとを行わせる、コンピュータ可読媒体。
[47] 実行されると、双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用されるプロセッサにビデオデータを符号化させる命令を備えるコンピュータ可読媒体であって、前記命令は前記プロセッサに、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、前記第1のMVPを識別する第1のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第2のMVDを生成することと、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することとを行わせる、コンピュータ可読媒体。
Claims (47)
- 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号する方法であって、
前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、
動きベクトルの第1のセットから選択される第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、
前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第1の動きベクトルは、前記現在ビデオブロックと第1の隣接ビデオブロックとに関連する、
前記第2の動きベクトルに関連する第2のMVDを受信することと、
第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVPは、動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と、隣接ビデオブロックの1つ以上に関連する動きベクトルとを含む、
前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することと、前記第2の動きベクトルは、前記現在ビデオブロックおよび前記第2の隣接ビデオブロックに関連する、
を備える、方法。 - 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項1に記載の方法。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項1に記載の方法。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項1に記載の方法。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項1に記載の方法。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項1に記載の方法。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項1に記載の方法。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項1に記載の方法。
- 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、
前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
前記双方向予測インターモードを定義する、前記CUについてのモード情報を受信することと
を更に備える、請求項1に記載の方法。 - 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、
前記双方向予測インターモードを定義する、前記PUについてのモード情報を受信することと
を更に備える、請求項1に記載の方法。 - 前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号すること
を更に備える、請求項1に記載の方法。 - 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化する方法であって、
前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、ここで、前記第1の動きベクトルは、第1の参照ビデオブロックの関数であり、
1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて動きベクトルの第1のセットから選択された第1の動きベクトル予測子(MVP)を識別することと、ここで、前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
前記第1のMVPを識別する第1のインデックスを生成することと、
前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、
前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、
動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで前記動きベクトルの第2のセットは、隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含み、前記第1の動きベクトルに基づく前記候補は、前記現在ビデオブロックから前記第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される、
前記第2のMVPとして前記スケーリングされた第1の動きベクトルを識別する第2のインデックスを生成することと、
前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、
前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することと
を備える、方法。 - 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項12に記載の方法。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項12に記載の方法。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項12に記載の方法。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項12に記載の方法。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項12に記載の方法。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項12に記載の方法。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項12に記載の方法。
- 前記現在ビデオブロックは、
高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、
前記HEVC規格に従って定義された前記CUの予測単位(PU)と
のうちの1つを備える、請求項12に記載の方法。 - ビデオデータを復号するビデオ復号装置であって、
第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、
動きベクトルの第1のセットから選択される、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、
前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第1の動きベクトルは、現在ビデオブロックと第1の隣接ビデオブロックとに関連する、
第2の動きベクトルに関連する第2のMVDを受信することと、
第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVPは、動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と、前記隣接ビデオブロックの1つ以上に関連する動きベクトルとを含む、
前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することと、前記第2の動きベクトルは、前記現在ビデオブロックおよび第2の隣接ビデオブロックに関連する、
を行うように構成されたビデオデコーダを備える、ビデオ復号装置。 - 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項21に記載のビデオ復号装置。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項21に記載のビデオ復号装置。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項21に記載のビデオ復号装置。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
- 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、
前記ビデオデコーダは、前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
双方向予測インターモードを定義する、前記CUについてのモード情報を受信することと
を行うように更に構成される、請求項21に記載のビデオ復号装置。 - 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、前記ビデオデコーダが、
双方向予測インターモードを定義する、前記PUについてのモード情報を受信する、請求項21に記載のビデオ復号装置。 - 前記ビデオデコーダが、前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号する、請求項21に記載のビデオ復号装置。
- 前記ビデオデコーダが、
前記第1のMVDと前記第1のインデックスと前記第2のMVDと前記第2のインデックスとを受信し、エントロピー復号するように構成されたエントロピー復号ユニットと、
前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成し、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するように構成された予測ユニットと
を含む、請求項21に記載のビデオ復号装置。 - 集積回路と、
マイクロプロセッサと、
ビデオデコーダを含むワイヤレス通信機器と
のうちの1つ以上を備える、請求項21に記載のビデオ復号装置。 - 現在ビデオブロックでビデオデータを符号化するビデオ符号化装置であって、
現在ビデオブロックを双方向予測インターモードでコード化するために使用される第1の動きベクトルを決定することと、ここで、前記第1の動きベクトルは第1の参照ビデオブロックの関数である、
1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、ここで、前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
前記第1のMVPを識別する第1のインデックスを生成することと、
前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、
前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用される第2の動きベクトルを決定することと、
動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで前記動きベクトルの第2のセットは、隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含み、ここで、前記第1の動きベクトルに基づく前記候補は、前記現在ビデオブロックから前記第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される、
前記第2のMVPとして前記スケーリングされた第1の動きベクトルを識別する第2のインデックスを生成することと、
前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、
前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することと
を行うように構成されたビデオエンコーダ
を備える、ビデオ符号化装置。 - 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項34に記載のビデオ符号化装置。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項34に記載のビデオ符号化装置。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項34に記載のビデオ符号化装置。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
- 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
- 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
- 前記現在ビデオブロックは、
高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、
前記HEVC規格に従って定義された前記CUの予測単位(PU)と
のうちの1つを備える、請求項34に記載のビデオ符号化装置。 - 集積回路と、
マイクロプロセッサと、
ビデオエンコーダを含むワイヤレス通信機器と
のうちの1つ以上を備える、請求項34に記載のビデオ符号化装置。 - 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号するための装置であって、
前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信するための手段と、
第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信するための手段と、前記第1のMVPは、動きベクトルの第1のセットから選択される、
前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成するための手段と、前記第1の動きベクトルは、前記現在ビデオブロックと第1の隣接ビデオブロックとに関連する、
前記第2の動きベクトルに関連する第2のMVDを受信するための手段と、
第2のMVPを識別する第2のインデックスを受信するための手段と、ここで前記第2のMVPは、動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と、隣接ビデオブロックの1つ以上に関連する動きベクトルとを含む、
前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するための手段と、前記第2の動きベクトルは、前記現在ビデオブロックおよび第2の隣接ビデオブロックに関連する、
を備える、装置。 - 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化するための装置であって、
前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定するための手段と、ここで前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて動きベクトルの第1のセットから選択される第1の動きベクトル予測子(MVP)を識別するための手段と、
前記第1のMVPを識別する第1のインデックスを生成するための手段と、
前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成するための手段と、
前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定するための手段と、
動きベクトルの第2のセットに基づいて第2のMVPを識別するための手段と、ここで前記動きベクトルの第2のセットは、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルのスケーリングバージョンに基づく候補とを含み、前記第1の動きベクトルに基づく前記候補は、前記現在ビデオブロックから第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される、
前記第2のMVPとしてスケーリングされた前記第1の動きベクトルを識別する第2のインデックスを生成するための手段と、
前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成するための手段と、
前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力するための手段と
を備える、装置。 - 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、実行されると、プロセッサにビデオデータを復号させる命令を記憶するコンピュータ可読記憶媒体であって、前記命令は前記プロセッサに、
前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信すると、及び第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信すると、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第1のMVPは動きベクトルの第1のセットから選択され、前記第1の動きベクトルは、前記現在ビデオブロックと第1の隣接ビデオブロックとに関連する、
前記第2の動きベクトルに関連する第2のMVDを受信すると、及び第2のMVPを識別する第2のインデックスを受信すると、ここで、前記第2のMVPは動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と隣接ビデオブロックの1つ以上に関連する動きベクトルとを含み、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することと、前記第2の動きベクトルは、前記現在ビデオブロックと第2の隣接ビデオブロックに関連する、
を行わせる、コンピュータ可読記憶媒体。 - 実行されると、双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用されるプロセッサにビデオデータを符号化させる命令を記憶するコンピュータ可読記憶媒体であって、前記命令は前記プロセッサに、
前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、ここで、前記第1の動きベクトルは第1の参照ビデオブロックの関数であり、
1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、ここで前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
前記第1のMVPを識別する第1のインデックスを生成することと、
前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、
前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、
動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで前記動きベクトルの第2のセットは、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルのスケーリングバージョンに基づく候補とを含み、前記第1の動きベクトルに基づく前記候補は、前記現在ビデオブロックから前記第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成され、
前記第2のMVPとしてスケーリングされた前記第1の動きベクトルを識別する第2のインデックスを生成することと、
前記第1の動きベクトルと前記第1のMVPとに基づいて第2のMVDを生成することと、
前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することと
を行わせる、コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161450537P | 2011-03-08 | 2011-03-08 | |
US61/450,537 | 2011-03-08 | ||
US13/352,175 US9288501B2 (en) | 2011-03-08 | 2012-01-17 | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
US13/352,175 | 2012-01-17 | ||
PCT/US2012/021885 WO2012121808A1 (en) | 2011-03-08 | 2012-01-19 | MOTION VECTOR PREDICTORS (MVPs) FOR BI-PREDICTIVE INTER MODE IN VIDEO CODING |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014511648A JP2014511648A (ja) | 2014-05-15 |
JP5844392B2 true JP5844392B2 (ja) | 2016-01-13 |
Family
ID=46795563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013557717A Expired - Fee Related JP5844392B2 (ja) | 2011-03-08 | 2012-01-19 | ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp) |
Country Status (6)
Country | Link |
---|---|
US (1) | US9288501B2 (ja) |
EP (1) | EP2684356B1 (ja) |
JP (1) | JP5844392B2 (ja) |
CN (1) | CN103430540B (ja) |
TW (1) | TW201238358A (ja) |
WO (1) | WO2012121808A1 (ja) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107105291B (zh) * | 2010-12-13 | 2020-04-07 | 韩国电子通信研究院 | 基于帧间预测对视频信号进行解码的方法 |
KR101820997B1 (ko) | 2011-01-12 | 2018-01-22 | 선 페이턴트 트러스트 | 동화상 부호화 방법 및 동화상 복호화 방법 |
JP5358746B2 (ja) * | 2011-03-03 | 2013-12-04 | パナソニック株式会社 | 動画像符号化方法、動画像符号化装置及びプログラム |
JP5982734B2 (ja) | 2011-03-11 | 2016-08-31 | ソニー株式会社 | 画像処理装置および方法 |
WO2012172668A1 (ja) * | 2011-06-15 | 2012-12-20 | 株式会社 東芝 | 動画像符号化方法及び装置並びに動画復号化方法及び装置 |
MX365013B (es) * | 2011-08-29 | 2019-05-20 | Ibex Pt Holdings Co Ltd | Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp). |
CA2853002C (en) * | 2011-10-18 | 2017-07-25 | Kt Corporation | Method for encoding image, method for decoding image, image encoder, and image decoder |
KR102257542B1 (ko) * | 2012-10-01 | 2021-05-31 | 지이 비디오 컴프레션, 엘엘씨 | 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩 |
US9538180B2 (en) | 2012-12-17 | 2017-01-03 | Qualcomm Incorporated | Motion vector prediction in video coding |
US9826244B2 (en) * | 2013-01-08 | 2017-11-21 | Qualcomm Incorporated | Device and method for scalable coding of video information based on high efficiency video coding |
JP5983430B2 (ja) * | 2013-01-25 | 2016-08-31 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 |
MX2016004705A (es) | 2013-10-14 | 2016-07-18 | Microsoft Technology Licensing Llc | Caracteristicas del modo de prediccion copia de bloque interno para codificacion y decodificacion de imagen y video. |
US11109036B2 (en) | 2013-10-14 | 2021-08-31 | Microsoft Technology Licensing, Llc | Encoder-side options for intra block copy prediction mode for video and image coding |
RU2666635C2 (ru) | 2013-10-14 | 2018-09-11 | МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи | Характеристики режима индексной карты основных цветов для кодирования и декодирования видео и изображения |
JP6654434B2 (ja) * | 2013-11-01 | 2020-02-26 | ソニー株式会社 | 画像処理装置および方法 |
CN111193930B (zh) * | 2013-12-16 | 2021-11-30 | 浙江大学 | 一种前向双假设编码图像块的编解码方法和装置 |
US10390034B2 (en) | 2014-01-03 | 2019-08-20 | Microsoft Technology Licensing, Llc | Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area |
WO2015100726A1 (en) * | 2014-01-03 | 2015-07-09 | Microsoft Corporation | Block vector prediction in video and image coding/decoding |
US11284103B2 (en) | 2014-01-17 | 2022-03-22 | Microsoft Technology Licensing, Llc | Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning |
US10542274B2 (en) | 2014-02-21 | 2020-01-21 | Microsoft Technology Licensing, Llc | Dictionary encoding and decoding of screen content |
JP2017512026A (ja) | 2014-03-04 | 2017-04-27 | マイクロソフト テクノロジー ライセンシング,エルエルシー | イントラブロックコピー予測におけるブロック反転及びスキップモード |
KR20160132862A (ko) * | 2014-03-13 | 2016-11-21 | 퀄컴 인코포레이티드 | 3d-hevc 를 위한 단순화된 진보된 잔차 예측 |
US20150271512A1 (en) * | 2014-03-18 | 2015-09-24 | Texas Instruments Incorporated | Dynamic frame padding in a video hardware engine |
US10944983B2 (en) | 2014-04-01 | 2021-03-09 | Mediatek Inc. | Method of motion information coding |
CN105493505B (zh) | 2014-06-19 | 2019-08-06 | 微软技术许可有限责任公司 | 统一的帧内块复制和帧间预测模式 |
EP3158753B1 (en) * | 2014-06-19 | 2021-12-08 | VID SCALE, Inc. | Intra block copy coding with block vector derivation |
EP3202150B1 (en) | 2014-09-30 | 2021-07-21 | Microsoft Technology Licensing, LLC | Rules for intra-picture prediction modes when wavefront parallel processing is enabled |
EP3202143B8 (en) | 2014-11-18 | 2019-09-25 | MediaTek Inc. | Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate |
US9591325B2 (en) | 2015-01-27 | 2017-03-07 | Microsoft Technology Licensing, Llc | Special case handling for merged chroma blocks in intra block copy prediction mode |
CN106664405B (zh) | 2015-06-09 | 2020-06-09 | 微软技术许可有限责任公司 | 用调色板模式对经逸出编码的像素的稳健编码/解码 |
US10271064B2 (en) * | 2015-06-11 | 2019-04-23 | Qualcomm Incorporated | Sub-prediction unit motion vector prediction using spatial and/or temporal motion information |
EP3430809A4 (en) * | 2016-03-18 | 2019-01-30 | Telefonaktiebolaget LM Ericsson (publ) | SUCCESSIVE FOR MOTION VECTOR RECONSTRUCTION |
CN106358041B (zh) * | 2016-08-30 | 2019-05-10 | 北京奇艺世纪科技有限公司 | 一种帧间预测编码方法及装置 |
US10448010B2 (en) * | 2016-10-05 | 2019-10-15 | Qualcomm Incorporated | Motion vector prediction for affine motion models in video coding |
US10999602B2 (en) | 2016-12-23 | 2021-05-04 | Apple Inc. | Sphere projected motion estimation/compensation and mode decision |
US11259046B2 (en) | 2017-02-15 | 2022-02-22 | Apple Inc. | Processing of equirectangular object data to compensate for distortion by spherical projections |
US10924747B2 (en) | 2017-02-27 | 2021-02-16 | Apple Inc. | Video coding techniques for multi-view video |
US11093752B2 (en) | 2017-06-02 | 2021-08-17 | Apple Inc. | Object tracking in multi-view video |
US10412410B2 (en) * | 2017-08-14 | 2019-09-10 | Google Llc | Compound motion-compensated prediction |
CN111095926A (zh) | 2017-09-12 | 2020-05-01 | 三星电子株式会社 | 用于对运动信息进行编码和解码的方法以及用于对运动信息进行编码和解码的装置 |
EP3457695A1 (en) | 2017-09-18 | 2019-03-20 | Thomson Licensing | Method and apparatus for motion vector predictor adaptation for omnidirectional video |
US10986349B2 (en) | 2017-12-29 | 2021-04-20 | Microsoft Technology Licensing, Llc | Constraints on locations of reference blocks for intra block copy prediction |
CN112040244B (zh) * | 2018-03-29 | 2021-06-29 | 华为技术有限公司 | 一种双向帧间预测方法及装置 |
CN110636296B (zh) * | 2018-06-22 | 2022-05-27 | 腾讯美国有限责任公司 | 视频解码方法、装置、计算机设备以及存储介质 |
WO2020024966A1 (en) * | 2018-07-31 | 2020-02-06 | Mediatek Inc. | Method and apparatus of merge with motion vector difference for video coding |
KR102602827B1 (ko) | 2018-09-04 | 2023-11-15 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 양방향 인터 예측에 적용되는 참조 프레임 획득 방법 및 장치 |
US20200112715A1 (en) * | 2018-10-05 | 2020-04-09 | Qualcomm Incorporated | History-based motion vector prediction for inter prediction coding |
WO2020117013A1 (ko) * | 2018-12-06 | 2020-06-11 | 엘지전자 주식회사 | 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치 |
US11197017B2 (en) * | 2018-12-06 | 2021-12-07 | Tencent America LLC | Methods and apparatuses for video coding |
CN113728643A (zh) | 2019-03-11 | 2021-11-30 | Vid拓展公司 | 对称合并模式运动向量编码 |
US20220279204A1 (en) * | 2021-02-26 | 2022-09-01 | Qualcomm Incorporated | Efficient video encoder architecture |
US11854264B2 (en) | 2021-06-18 | 2023-12-26 | Kyndryl, Inc. | Speculative actions based on predicting negative circumstances |
US20230086949A1 (en) * | 2021-09-15 | 2023-03-23 | Tencent America LLC | Method and Apparatus for Improved Signaling of Motion Vector Difference |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3936335B2 (ja) * | 2001-11-30 | 2007-06-27 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、プログラム及びプログラムを記憶したコンピュータ読み取り可能な記録媒体 |
CN100581259C (zh) | 2002-01-09 | 2010-01-13 | 松下电器产业株式会社 | 移动向量编码方法和移动向量编码装置 |
JP4130783B2 (ja) * | 2002-04-23 | 2008-08-06 | 松下電器産業株式会社 | 動きベクトル符号化方法および動きベクトル復号化方法 |
JP2004023458A (ja) | 2002-06-17 | 2004-01-22 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
KR100774296B1 (ko) | 2002-07-16 | 2007-11-08 | 삼성전자주식회사 | 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치 |
KR100865034B1 (ko) | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
KR100506864B1 (ko) | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
JP4373702B2 (ja) | 2003-05-07 | 2009-11-25 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム |
CN1225128C (zh) | 2003-12-31 | 2005-10-26 | 中国科学院计算技术研究所 | 直接编码模式下确定参考图像块的方法 |
CN1306821C (zh) | 2004-07-30 | 2007-03-21 | 联合信源数字音视频技术(北京)有限公司 | 一种视频图像中运动矢量预测生成的方法及其装置 |
JP2007028393A (ja) | 2005-07-20 | 2007-02-01 | Matsushita Electric Ind Co Ltd | 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法 |
KR100955396B1 (ko) * | 2007-06-15 | 2010-04-29 | 성균관대학교산학협력단 | 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체 |
WO2008153262A1 (en) * | 2007-06-15 | 2008-12-18 | Sungkyunkwan University Foundation For Corporate Collaboration | Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium |
KR101712915B1 (ko) * | 2007-10-16 | 2017-03-07 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US20100086031A1 (en) | 2008-10-03 | 2010-04-08 | Qualcomm Incorporated | Video coding with large macroblocks |
US8917769B2 (en) | 2009-07-03 | 2014-12-23 | Intel Corporation | Methods and systems to estimate motion based on reconstructed reference frames at a video decoder |
US9060176B2 (en) | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
KR101348613B1 (ko) * | 2009-12-23 | 2014-01-10 | 한국전자통신연구원 | 영상의 부호화/복호화 장치 및 그 방법 |
KR101456499B1 (ko) | 2010-07-09 | 2014-11-03 | 삼성전자주식회사 | 움직임 벡터의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US9124898B2 (en) | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
WO2012008040A1 (ja) | 2010-07-15 | 2012-01-19 | 株式会社 東芝 | 画像符号化方法及び画像復号化方法 |
US20120039383A1 (en) * | 2010-08-12 | 2012-02-16 | Mediatek Inc. | Coding unit synchronous adaptive loop filter flags |
-
2012
- 2012-01-17 US US13/352,175 patent/US9288501B2/en active Active
- 2012-01-19 WO PCT/US2012/021885 patent/WO2012121808A1/en active Application Filing
- 2012-01-19 JP JP2013557717A patent/JP5844392B2/ja not_active Expired - Fee Related
- 2012-01-19 CN CN201280012024.8A patent/CN103430540B/zh not_active Expired - Fee Related
- 2012-01-19 EP EP12702108.7A patent/EP2684356B1/en not_active Not-in-force
- 2012-02-01 TW TW101103273A patent/TW201238358A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
JP2014511648A (ja) | 2014-05-15 |
EP2684356A1 (en) | 2014-01-15 |
CN103430540B (zh) | 2016-12-21 |
TW201238358A (en) | 2012-09-16 |
US20120230392A1 (en) | 2012-09-13 |
EP2684356B1 (en) | 2016-01-13 |
CN103430540A (zh) | 2013-12-04 |
US9288501B2 (en) | 2016-03-15 |
WO2012121808A1 (en) | 2012-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5844392B2 (ja) | ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp) | |
JP5897698B2 (ja) | ビデオコーディングにおける単予測ネイバーに基づく双予測マージモード | |
US9906790B2 (en) | Deblock filtering using pixel distance | |
JP5792319B2 (ja) | ビデオデータのブロック係数のモード依存型スキャニング | |
EP2380351B1 (en) | Combined scheme for interpolation filtering, in-loop filtering and post-loop filtering in video coding | |
KR101377883B1 (ko) | 비디오 인코딩에서 넌-제로 라운딩 및 예측 모드 선택 기법들 | |
US20110249754A1 (en) | Variable length coding of coded block pattern (cbp) in video compression | |
US20150373362A1 (en) | Deblocking filter design for intra block copy | |
US20140341275A1 (en) | Signaling picture size in video coding | |
JP2014511618A (ja) | 動き予測ビデオブロックの階層 | |
US8665959B2 (en) | Block and partition signaling techniques for video coding | |
KR20230150284A (ko) | 효율적인 비디오 인코더 아키텍처 | |
CA2830242C (en) | Bi-predictive merge mode based on uni-predictive neighbors in video coding | |
CN116601959A (zh) | 重叠块运动补偿 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150609 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5844392 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |