JP6700489B2 - インター予測を介する画像符号化および復号のための方法および装置 - Google Patents
インター予測を介する画像符号化および復号のための方法および装置 Download PDFInfo
- Publication number
- JP6700489B2 JP6700489B2 JP2019517277A JP2019517277A JP6700489B2 JP 6700489 B2 JP6700489 B2 JP 6700489B2 JP 2019517277 A JP2019517277 A JP 2019517277A JP 2019517277 A JP2019517277 A JP 2019517277A JP 6700489 B2 JP6700489 B2 JP 6700489B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- prediction
- coded
- decoded
- backward
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/533—Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
前方予測動き情報に基づいて、第1符号化ブロックに対して前方予測を実行して、第1符号化ブロックの初期前方符号化予測ブロックを取得し、
後方予測動き情報に基づいて、第1符号化ブロックに対して後方予測を実行して、第1符号化ブロックの初期後方符号化予測ブロックを取得するように構成される。
初期前方符号化予測ブロックおよび初期後方符号化予測ブロックに対して重み付け加算を実行して、第1符号化ブロックの第1符号化予測ブロックを取得し、または、
初期前方符号化予測ブロックを、第1符号化ブロックの第1符号化予測ブロックとして使用し、または、
初期後方符号化予測ブロックを、第1符号化ブロックの第1符号化予測ブロックとして使用するように構成される。
前方動きベクトル予測子に基づいて、前方予測参照画像ブロックに対して第1の精度の動き探索を実行し、発見された各前方符号化予測ブロックを前方第2符号化予測ブロックとして使用して、少なくとも1つの第2符号化予測ブロックを取得し、
後方動きベクトル予測子に基づいて、後方予測参照画像ブロックに対して第1の精度の動き探索を実行し、発見された各後方符号化予測ブロックを後方第2符号化予測ブロックとして使用して、少なくとも1つの第2符号化予測ブロックを取得するように構成される。
前方第2符号化予測ブロックと第1符号化予測ブロックとの間の差を比較し、最小の差を有する第1符号化ブロックと前方第2符号化予測ブロックとの間のターゲット前方動きベクトル予測子を、ターゲット動きベクトル予測子として使用し、または、
後方第2符号化予測ブロックと第1符号化予測ブロックとの間の差を比較し、最小の差を有する第1符号化ブロックと後方第2符号化予測ブロックとの間のターゲット後方動きベクトル予測子を、ターゲット動きベクトル予測子として使用するように構成される。
ターゲット前方動きベクトル予測子に基づいて、第1符号化ブロックに対して前方予測を実行して、第1符号化ブロックの前方第3符号化予測ブロックを取得し、
ターゲット後方動きベクトル予測子に基づいて、第1符号化ブロックに対して後方予測を実行して、第1符号化ブロックの後方第3符号化予測ブロックを取得するように構成される。
前方第3符号化予測ブロックおよび後方第3符号化予測ブロックに対して重み付け加算を実行して、第1符号化ブロックのターゲット符号化予測ブロックを取得し、または、
前方第3符号化予測ブロックを、第1符号化ブロックのターゲット符号化予測ブロックとして使用し、または、
後方第3符号化予測ブロックを、第1符号化ブロックのターゲット符号化予測ブロックとして使用するように構成される。
前方予測動き情報に基づいて、第1復号ブロックに対して前方予測を実行して、第1復号ブロックの初期前方復号予測ブロックを取得し、
後方予測動き情報に基づいて、第1復号ブロックに対して後方予測を実行して、第1復号ブロックの初期後方復号予測ブロックを取得するように構成される。
初期前方復号予測ブロックおよび初期後方復号予測ブロックに対して重み付け加算を実行して、第1復号ブロックの第1復号予測ブロックを取得し、または、
初期前方復号予測ブロックを、第1復号ブロックの第1復号予測ブロックとして使用し、または、
初期後方復号予測ブロックを、第1復号ブロックの第1復号予測ブロックとして使用するように構成される。
前方動きベクトル予測子に基づいて、前方予測参照画像ブロックに対して第1の精度の動き探索を実行し、発見された各前方復号予測ブロックを前方第2復号予測ブロックとして使用して、少なくとも1つの第2復号予測ブロックを取得し、
後方動きベクトル予測子に基づいて、後方予測参照画像ブロックに対して第1の精度の動き探索を実行し、発見された各後方復号予測ブロックを後方第2復号予測ブロックとして使用して、少なくとも1つの第2復号予測ブロックを取得するように構成される。
前方第2復号予測ブロックと第1復号予測ブロックとの間の差を比較し、最小の差を有する第1復号ブロックと前方第2復号予測ブロックとの間のターゲット前方動きベクトル予測子を、ターゲット動きベクトル予測子として使用し、または、
後方第2復号予測ブロックと第1復号予測ブロックとの間の差を比較し、最小の差を有する第1復号ブロックと後方第2復号予測ブロックとの間のターゲット後方動きベクトル予測子を、ターゲット動きベクトル予測子として使用するように構成される。
ターゲット前方動きベクトル予測子に基づいて、第1復号ブロックに対して前方予測を実行して、第1復号ブロックの前方第3復号予測ブロックを取得し、
ターゲット後方動きベクトル予測子に基づいて、第1復号ブロックに対して後方予測を実行して、第1復号ブロックの後方第3復号予測ブロックを取得するように構成される。
前方第3復号予測ブロックおよび後方第3復号予測ブロックに対して重み付け加算を実行して、第1復号ブロックのターゲット復号予測ブロックを取得し、または、
前方第3復号予測ブロックを、第1復号ブロックのターゲット復号予測ブロックとして使用し、または、
後方第3復号予測ブロックを、第1復号ブロックのターゲット復号予測ブロックとして使用するように構成される。
34 キーパッド
42 赤外線ポート
52 無線インタフェース
54 コーデック
56 コントローラ
58 メモリ
12 送信元装置
14 送信先装置
18 ビデオソース
20 ビデオコーダ
22 出力インタフェース
28 入力インタフェース
30 ビデオデコーダ
32 ディスプレイ装置
1000 装置
1001 決定ユニット
1002 処理ユニット
1003 符号化ユニット
1100 符号器
1101 プロセッサ
1102 メモリ
1200 装置
1201 決定ユニット
1202 処理ユニット
1203 復号ユニット
1300 復号器
1301 プロセッサ
1302 メモリ
Claims (32)
- インター予測を介する画像符号化のための方法であって、
第1符号化ブロックの予測動き情報を決定するステップであって、前記予測動き情報は、動きベクトル予測子および予測参照画像情報を含み、前記予測参照画像情報は、予測参照画像ブロックを表すために使用される、ステップと、
前記予測動き情報に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの初期符号化予測ブロックを取得し、前記初期符号化予測ブロックに基づいて、前記第1符号化ブロックの第1符号化予測ブロックを取得するステップと、
前記予測参照画像ブロックに対して第1の精度の動き探索を実行して、少なくとも1つの第2符号化予測ブロックを取得するステップであって、前記動き探索の探索位置は、前記動きベクトル予測子および前記第1の精度を使用することによって決定される、ステップと、
前記第1符号化予測ブロックと各第2符号化予測ブロックとの間の差を計算し、最小の差を有する前記第1符号化ブロックと第2符号化予測ブロックとの間の動きベクトル予測子を、前記第1符号化ブロックのターゲット動きベクトル予測子として使用するステップと、
前記ターゲット動きベクトル予測子に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの第3符号化予測ブロックを取得するステップと、
前記第3符号化予測ブロックに基づいて、前記第1符号化ブロックのターゲット符号化予測ブロックを取得し、前記ターゲット符号化予測ブロックに基づいて、前記第1符号化ブロックを符号化するステップとを含む方法。 - 前記予測動き情報は、前方予測動き情報および後方予測動き情報を含み、前記動きベクトル予測子は、前方動きベクトル予測子および後方動きベクトル予測子を含み、前記予測参照画像ブロックは、前方予測参照画像ブロックおよび後方予測参照画像ブロックを含む、請求項1に記載の方法。
- 前記初期符号化予測ブロックは、初期前方符号化予測ブロックおよび初期後方符号化予測ブロックを含み、前記予測動き情報に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの初期符号化予測ブロックを取得する前記ステップは、
前記前方予測動き情報に基づいて、前記第1符号化ブロックに対して前方予測を実行して、前記第1符号化ブロックの前記初期前方符号化予測ブロックを取得するステップと、
前記後方予測動き情報に基づいて、前記第1符号化ブロックに対して後方予測を実行して、前記第1符号化ブロックの前記初期後方符号化予測ブロックを取得するステップとを含む、請求項2に記載の方法。 - 前記初期符号化予測ブロックに基づいて、前記第1符号化ブロックの第1符号化予測ブロックを取得する前記ステップは、
前記初期前方符号化予測ブロックおよび前記初期後方符号化予測ブロックに対して重み付け加算を実行して、前記第1符号化ブロックの前記第1符号化予測ブロックを取得するステップ、または、
前記初期前方符号化予測ブロックを、前記第1符号化ブロックの前記第1符号化予測ブロックとして使用するステップ、または、
前記初期後方符号化予測ブロックを、前記第1符号化ブロックの前記第1符号化予測ブロックとして使用するステップを含む、請求項3に記載の方法。 - 前記第2符号化予測ブロックは、前方第2符号化予測ブロックおよび後方第2符号化予測ブロックを含み、前記予測参照画像ブロックに対して第1の精度の動き探索を実行して、少なくとも1つの第2符号化予測ブロックを取得する前記ステップは、
前記前方動きベクトル予測子に基づいて、前記前方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各前方符号化予測ブロックを前記前方第2符号化予測ブロックとして使用して、前記少なくとも1つの第2符号化予測ブロックを取得するステップと、
前記後方動きベクトル予測子に基づいて、前記後方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各後方符号化予測ブロックを前記後方第2符号化予測ブロックとして使用して、前記少なくとも1つの第2符号化予測ブロックを取得するステップとを含み、
前記第1の精度は、整数画素精度、1/2画素精度、1/4画素精度または1/8画素精度を含む、請求項4に記載の方法。 - 前記ターゲット動きベクトル予測子は、ターゲット前方動きベクトル予測子およびターゲット後方動きベクトル予測子を含み、前記第1符号化予測ブロックと各第2符号化予測ブロックとの間の差を計算し、最小の差を有する前記第1符号化ブロックと第2符号化予測ブロックとの間の動きベクトル予測子を、前記第1符号化ブロックのターゲット動きベクトル予測子として使用する前記ステップは、
前記前方第2符号化予測ブロックと前記第1符号化予測ブロックとの間の差を比較し、最小の差を有する前記第1符号化ブロックと前方第2符号化予測ブロックとの間のターゲット前方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用するステップ、および/または、
前記後方第2符号化予測ブロックと前記第1符号化予測ブロックとの間の差を比較し、最小の差を有する前記第1符号化ブロックと後方第2符号化予測ブロックとの間のターゲット後方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用するステップを含む、請求項5に記載の方法。 - 前記第1符号化ブロックの前記第3符号化予測ブロックは、前方第3符号化予測ブロックおよび後方第3符号化予測ブロックを含み、前記ターゲット動きベクトル予測子に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの第3符号化予測ブロックを取得する前記ステップは、
前記ターゲット前方動きベクトル予測子に基づいて、前記第1符号化ブロックに対して前方予測を実行して、前記第1符号化ブロックの前記前方第3符号化予測ブロックを取得するステップと、
前記ターゲット後方動きベクトル予測子に基づいて、前記第1符号化ブロックに対して後方予測を実行して、前記第1符号化ブロックの前記後方第3符号化予測ブロックを取得するステップとを含む、請求項6に記載の方法。 - 前記第3符号化予測ブロックに基づいて、前記第1符号化ブロックのターゲット符号化予測ブロックを取得する前記ステップは、
前記前方第3符号化予測ブロックおよび前記後方第3符号化予測ブロックに対して重み付け加算を実行して、前記第1符号化ブロックの前記ターゲット符号化予測ブロックを取得するステップ、または、
前記前方第3符号化予測ブロックを、前記第1符号化ブロックの前記ターゲット符号化予測ブロックとして使用するステップ、または、
前記後方第3符号化予測ブロックを、前記第1符号化ブロックの前記ターゲット符号化予測ブロックとして使用するステップを含む、請求項7に記載の方法。 - インター予測を介する画像復号のための方法であって、
第1復号ブロックの予測動き情報を決定するステップであって、前記予測動き情報は、動きベクトル予測子および予測参照画像情報を含み、前記予測参照画像情報は、予測参照画像ブロックを表すために使用される、ステップと、
前記予測動き情報に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの初期復号予測ブロックを取得し、前記初期復号予測ブロックに基づいて、前記第1復号ブロックの第1復号予測ブロックを取得するステップと、
前記予測参照画像ブロックに対して第1の精度の動き探索を実行して、少なくとも1つの第2復号予測ブロックを取得するステップであって、前記動き探索の探索位置は、前記動きベクトル予測子および前記第1の精度を使用することによって決定される、ステップと、
前記第1復号予測ブロックと各第2復号予測ブロックとの間の差を計算し、最小の差を有する前記第1復号ブロックと第2復号予測ブロックとの間の動きベクトル予測子を、前記第1復号ブロックのターゲット動きベクトル予測子として使用するステップと、
前記ターゲット動きベクトル予測子に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの第3復号予測ブロックを取得するステップと、
前記第3復号予測ブロックに基づいて、前記第1復号ブロックのターゲット復号予測ブロックを取得し、前記ターゲット復号予測ブロックに基づいて、前記第1復号ブロックを復号するステップとを含む方法。 - 前記予測動き情報は、前方予測動き情報および後方予測動き情報を含み、前記動きベクトル予測子は、前方動きベクトル予測子および後方動きベクトル予測子を含み、前記予測参照画像ブロックは、前方予測参照画像ブロックおよび後方予測参照画像ブロックを含む、請求項9に記載の方法。
- 前記初期復号予測ブロックは、初期前方復号予測ブロックおよび初期後方復号予測ブロックを含み、前記予測動き情報に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの初期復号予測ブロックを取得する前記ステップは、
前記前方予測動き情報に基づいて、前記第1復号ブロックに対して前方予測を実行して、前記第1復号ブロックの前記初期前方復号予測ブロックを取得するステップと、
前記後方予測動き情報に基づいて、前記第1復号ブロックに対して後方予測を実行して、前記第1復号ブロックの前記初期後方復号予測ブロックを取得するステップとを含む、請求項10に記載の方法。 - 前記初期復号予測ブロックに基づいて、前記第1復号ブロックの第1復号予測ブロックを取得する前記ステップは、
前記初期前方復号予測ブロックおよび前記初期後方復号予測ブロックに対して重み付け加算を実行して、前記第1復号ブロックの前記第1復号予測ブロックを取得するステップ、または、
前記初期前方復号予測ブロックを、前記第1復号ブロックの前記第1復号予測ブロックとして使用するステップ、または、
前記初期後方復号予測ブロックを、前記第1復号ブロックの前記第1復号予測ブロックとして使用するステップを含む、請求項11に記載の方法。 - 前記第2復号予測ブロックは、前方第2復号予測ブロックおよび後方第2復号予測ブロックを含み、前記予測参照画像ブロックに対して第1の精度の動き探索を実行して、少なくとも1つの第2復号予測ブロックを取得する前記ステップは、
前記前方動きベクトル予測子に基づいて、前記前方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各前方復号予測ブロックを前記前方第2復号予測ブロックとして使用して、前記少なくとも1つの第2復号予測ブロックを取得するステップと、
前記後方動きベクトル予測子に基づいて、前記後方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各後方復号予測ブロックを前記後方第2復号予測ブロックとして使用して、前記少なくとも1つの第2復号予測ブロックを取得するステップとを含み、
前記第1の精度は、整数画素精度、1/2画素精度、1/4画素精度または1/8画素精度を含む、請求項12に記載の方法。 - 前記ターゲット動きベクトル予測子は、ターゲット前方動きベクトル予測子およびターゲット後方動きベクトル予測子を含み、前記第1復号予測ブロックと各第2復号予測ブロックとの間の差を計算し、最小の差を有する前記第1復号ブロックと第2復号予測ブロックとの間の動きベクトル予測子を、前記第1復号ブロックのターゲット動きベクトル予測子として使用する前記ステップは、
前記前方第2復号予測ブロックと前記第1復号予測ブロックとの間の差を比較し、最小の差を有する前記第1復号ブロックと前方第2復号予測ブロックとの間のターゲット前方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用するステップ、および/または、
前記後方第2復号予測ブロックと前記第1復号予測ブロックとの間の差を比較し、最小の差を有する前記第1復号ブロックと後方第2復号予測ブロックとの間のターゲット後方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用するステップを含む、請求項13に記載の方法。 - 前記第1復号ブロックの前記第3復号予測ブロックは、前方第3復号予測ブロックおよび後方第3復号予測ブロックを含み、前記ターゲット動きベクトル予測子に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの第3復号予測ブロックを取得する前記ステップは、
前記ターゲット前方動きベクトル予測子に基づいて、前記第1復号ブロックに対して前方予測を実行して、前記第1復号ブロックの前記前方第3復号予測ブロックを取得するステップと、
前記ターゲット後方動きベクトル予測子に基づいて、前記第1復号ブロックに対して後方予測を実行して、前記第1復号ブロックの前記後方第3復号予測ブロックを取得するステップとを含む、請求項14に記載の方法。 - 前記第3復号予測ブロックに基づいて、前記第1復号ブロックのターゲット復号予測ブロックを取得する前記ステップは、
前記前方第3復号予測ブロックおよび前記後方第3復号予測ブロックに対して重み付け加算を実行して、前記第1復号ブロックの前記ターゲット復号予測ブロックを取得するステップ、または、
前記前方第3復号予測ブロックを、前記第1復号ブロックの前記ターゲット復号予測ブロックとして使用するステップ、または、
前記後方第3復号予測ブロックを、前記第1復号ブロックの前記ターゲット復号予測ブロックとして使用するステップを含む、請求項15に記載の方法。 - インター予測を介する画像符号化のための装置であって、
第1符号化ブロックの予測動き情報を決定するように構成される決定ユニットであって、前記予測動き情報は、動きベクトル予測子および予測参照画像情報を含み、前記予測参照画像情報は、予測参照画像ブロックを表すために使用される、決定ユニットと、
前記予測動き情報に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの初期符号化予測ブロックを取得し、前記初期符号化予測ブロックに基づいて、前記第1符号化ブロックの第1符号化予測ブロックを取得し、前記予測参照画像ブロックに対して第1の精度の動き探索を実行して、少なくとも1つの第2符号化予測ブロックを取得し、前記動き探索の探索位置は、前記動きベクトル予測子および前記第1の精度を使用することによって決定され、前記第1符号化予測ブロックと各第2符号化予測ブロックとの間の差を計算し、最小の差を有する前記第1符号化ブロックと第2符号化予測ブロックとの間の動きベクトル予測子を、前記第1符号化ブロックのターゲット動きベクトル予測子として使用し、前記ターゲット動きベクトル予測子に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの第3符号化予測ブロックを取得するように構成される処理ユニットと、
前記第3符号化予測ブロックに基づいて、前記第1符号化ブロックのターゲット符号化予測ブロックを取得し、前記ターゲット符号化予測ブロックに基づいて、前記第1符号化ブロックを符号化するように構成される符号化ユニットとを含む装置。 - 前記予測動き情報は、前方予測動き情報および後方予測動き情報を含み、前記動きベクトル予測子は、前方動きベクトル予測子および後方動きベクトル予測子を含み、前記予測参照画像ブロックは、前方予測参照画像ブロックおよび後方予測参照画像ブロックを含む、請求項17に記載の装置。
- 前記初期符号化予測ブロックは、初期前方符号化予測ブロックおよび初期後方符号化予測ブロックを含み、前記予測動き情報に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの前記初期符号化予測ブロックを取得するとき、前記処理ユニットは、
前記前方予測動き情報に基づいて、前記第1符号化ブロックに対して前方予測を実行して、前記第1符号化ブロックの前記初期前方符号化予測ブロックを取得し、
前記後方予測動き情報に基づいて、前記第1符号化ブロックに対して後方予測を実行して、前記第1符号化ブロックの前記初期後方符号化予測ブロックを取得するように構成される、請求項18に記載の装置。 - 前記初期符号化予測ブロックに基づいて、前記第1符号化ブロックの前記第1符号化予測ブロックを取得するとき、前記処理ユニットは、
前記初期前方符号化予測ブロックおよび前記初期後方符号化予測ブロックに対して重み付け加算を実行して、前記第1符号化ブロックの前記第1符号化予測ブロックを取得し、または、
前記初期前方符号化予測ブロックを、前記第1符号化ブロックの前記第1符号化予測ブロックとして使用し、または、
前記初期後方符号化予測ブロックを、前記第1符号化ブロックの前記第1符号化予測ブロックとして使用するように構成される、請求項19に記載の装置。 - 前記第2符号化予測ブロックは、前方第2符号化予測ブロックおよび後方第2符号化予測ブロックを含み、前記動きベクトル予測子に基づいて、前記予測参照画像ブロックに対して前記第1の精度の動き探索を実行して、前記少なくとも1つの第2符号化予測ブロックを取得するとき、前記処理ユニットは、
前記前方動きベクトル予測子に基づいて、前記前方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各前方符号化予測ブロックを前記前方第2符号化予測ブロックとして使用して、前記少なくとも1つの第2符号化予測ブロックを取得し、
前記後方動きベクトル予測子に基づいて、前記後方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各後方符号化予測ブロックを前記後方第2符号化予測ブロックとして使用して、前記少なくとも1つの第2符号化予測ブロックを取得するように構成され、
前記第1の精度は、整数画素精度、1/2画素精度、1/4画素精度または1/8画素精度を含む、請求項20に記載の装置。 - 前記ターゲット動きベクトル予測子は、ターゲット前方動きベクトル予測子およびターゲット後方動きベクトル予測子を含み、前記第1符号化予測ブロックと各第2符号化予測ブロックとの間の前記差を計算し、最小の差を有する前記第1符号化ブロックと前記第2符号化予測ブロックとの間の前記動きベクトル予測子を、前記第1符号化ブロックの前記ターゲット動きベクトル予測子として使用するとき、前記処理ユニットは、
前記前方第2符号化予測ブロックと前記第1符号化予測ブロックとの間の差を比較し、最小の差を有する前記第1符号化ブロックと前方第2符号化予測ブロックとの間のターゲット前方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用し、かつ/または、
前記後方第2符号化予測ブロックと前記第1符号化予測ブロックとの間の差を比較し、最小の差を有する前記第1符号化ブロックと後方第2符号化予測ブロックとの間のターゲット後方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用するように構成される、請求項21に記載の装置。 - 前記第1符号化ブロックの前記第3符号化予測ブロックは、前方第3符号化予測ブロックおよび後方第3符号化予測ブロックを含み、前記ターゲット動きベクトル予測子に基づいて、前記第1符号化ブロックに対して双方向予測を実行して、前記第1符号化ブロックの前記第3符号化予測ブロックを取得するとき、前記処理ユニットは、
前記ターゲット前方動きベクトル予測子に基づいて、前記第1符号化ブロックに対して前方予測を実行して、前記第1符号化ブロックの前記前方第3符号化予測ブロックを取得し、
前記ターゲット後方動きベクトル予測子に基づいて、前記第1符号化ブロックに対して後方予測を実行して、前記第1符号化ブロックの前記後方第3符号化予測ブロックを取得するように構成される、請求項22に記載の装置。 - 前記第3符号化予測ブロックに基づいて、前記第1符号化ブロックの前記ターゲット符号化予測ブロックを取得するとき、前記処理ユニットは、
前記前方第3符号化予測ブロックおよび前記後方第3符号化予測ブロックに対して重み付け加算を実行して、前記第1符号化ブロックの前記ターゲット符号化予測ブロックを取得し、または、
前記前方第3符号化予測ブロックを、前記第1符号化ブロックの前記ターゲット符号化予測ブロックとして使用し、または、
前記後方第3符号化予測ブロックを、前記第1符号化ブロックの前記ターゲット符号化予測ブロックとして使用するように構成される、請求項23に記載の装置。 - インター予測を介する画像復号のための装置であって、
第1復号ブロックの予測動き情報を決定するように構成される決定ユニットであって、前記予測動き情報は、動きベクトル予測子および予測参照画像情報を含み、前記予測参照画像情報は、予測参照画像ブロックを表すために使用される、決定ユニットと、
前記予測動き情報に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの初期復号予測ブロックを取得し、前記初期復号予測ブロックに基づいて、前記第1復号ブロックの第1復号予測ブロックを取得し、前記予測参照画像ブロックに対して第1の精度の動き探索を実行して、少なくとも1つの第2復号予測ブロックを取得し、前記動き探索の探索位置は、前記動きベクトル予測子および前記第1の精度を使用することによって決定され、前記第1復号予測ブロックと各第2復号予測ブロックとの間の差を計算し、最小の差を有する前記第1復号ブロックと第2復号予測ブロックとの間の動きベクトル予測子を、前記第1復号ブロックのターゲット動きベクトル予測子として使用し、前記ターゲット動きベクトル予測子に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの第3復号予測ブロックを取得するように構成される処理ユニットと、
前記第3復号予測ブロックに基づいて、前記第1復号ブロックのターゲット復号予測ブロックを取得し、前記ターゲット復号予測ブロックに基づいて、前記第1復号ブロックを復号するように構成される復号ユニットとを含む装置。 - 前記予測動き情報は、前方予測動き情報および後方予測動き情報を含み、前記動きベクトル予測子は、前方動きベクトル予測子および後方動きベクトル予測子を含み、前記予測参照画像ブロックは、前方予測参照画像ブロックおよび後方予測参照画像ブロックを含む、請求項25に記載の装置。
- 前記初期復号予測ブロックは、初期前方復号予測ブロックおよび初期後方復号予測ブロックを含み、前記予測動き情報に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの前記初期復号予測ブロックを取得するとき、前記処理ユニットは、
前記前方予測動き情報に基づいて、前記第1復号ブロックに対して前方予測を実行して、前記第1復号ブロックの前記初期前方復号予測ブロックを取得し、
前記後方予測動き情報に基づいて、前記第1復号ブロックに対して後方予測を実行して、前記第1復号ブロックの前記初期後方復号予測ブロックを取得するように構成される、請求項26に記載の装置。 - 前記初期復号予測ブロックに基づいて、前記第1復号ブロックの前記第1復号予測ブロックを取得するとき、前記処理ユニットは、
前記初期前方復号予測ブロックおよび前記初期後方復号予測ブロックに対して重み付け加算を実行して、前記第1復号ブロックの前記第1復号予測ブロックを取得し、または、
前記初期前方復号予測ブロックを、前記第1復号ブロックの前記第1復号予測ブロックとして使用し、または、
前記初期後方復号予測ブロックを、前記第1復号ブロックの前記第1復号予測ブロックとして使用するように構成される、請求項27に記載の装置。 - 前記第2復号予測ブロックは、前方第2復号予測ブロックおよび後方第2復号予測ブロックを含み、前記動きベクトル予測子に基づいて、前記予測参照画像ブロックに対して前記第1の精度の動き探索を実行して、前記少なくとも1つの第2復号予測ブロックを取得するとき、前記処理ユニットは、
前記前方動きベクトル予測子に基づいて、前記前方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各前方復号予測ブロックを前記前方第2復号予測ブロックとして使用して、前記少なくとも1つの第2復号予測ブロックを取得し、
前記後方動きベクトル予測子に基づいて、前記後方予測参照画像ブロックに対して前記第1の精度の動き探索を実行し、発見された各後方復号予測ブロックを前記後方第2復号予測ブロックとして使用して、前記少なくとも1つの第2復号予測ブロックを取得するように構成され、
前記第1の精度は、整数画素精度、1/2画素精度、1/4画素精度または1/8画素精度を含む、請求項28に記載の装置。 - 前記ターゲット動きベクトル予測子は、ターゲット前方動きベクトル予測子およびターゲット後方動きベクトル予測子を含み、前記第1復号予測ブロックと各第2復号予測ブロックとの間の前記差を計算し、最小の差を有する前記第1復号ブロックと前記第2復号予測ブロックとの間の前記動きベクトル予測子を、前記第1復号ブロックの前記ターゲット動きベクトル予測子として使用するとき、前記処理ユニットは、
前記前方第2復号予測ブロックと前記第1復号予測ブロックとの間の差を比較し、最小の差を有する前記第1復号ブロックと前方第2復号予測ブロックとの間のターゲット前方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用し、または、
前記後方第2復号予測ブロックと前記第1復号予測ブロックとの間の差を比較し、最小の差を有する前記第1復号ブロックと後方第2復号予測ブロックとの間のターゲット後方動きベクトル予測子を、前記ターゲット動きベクトル予測子として使用するように構成される、請求項29に記載の装置。 - 前記第1復号ブロックの前記第3復号予測ブロックは、前方第3復号予測ブロックおよび後方第3復号予測ブロックを含み、前記ターゲット動きベクトル予測子に基づいて、前記第1復号ブロックに対して双方向予測を実行して、前記第1復号ブロックの前記第3復号予測ブロックを取得するとき、前記処理ユニットは、
前記ターゲット前方動きベクトル予測子に基づいて、前記第1復号ブロックに対して前方予測を実行して、前記第1復号ブロックの前記前方第3復号予測ブロックを取得し、
前記ターゲット後方動きベクトル予測子に基づいて、前記第1復号ブロックに対して後方予測を実行して、前記第1復号ブロックの前記後方第3復号予測ブロックを取得するように構成される、請求項30に記載の装置。 - 前記第3復号予測ブロックに基づいて、前記第1復号ブロックの前記ターゲット復号予測ブロックを取得するとき、前記処理ユニットは、
前記前方第3復号予測ブロックおよび前記後方第3復号予測ブロックに対して重み付け加算を実行して、前記第1復号ブロックの前記ターゲット復号予測ブロックを取得し、または、
前記前方第3復号予測ブロックを、前記第1復号ブロックの前記ターゲット復号予測ブロックとして使用し、または、
前記後方第3復号予測ブロックを、前記第1復号ブロックの前記ターゲット復号予測ブロックとして使用するように構成される、請求項31に記載の装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020079569A JP6968228B2 (ja) | 2016-09-30 | 2020-04-28 | インター予測を介する画像符号化および復号のための方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/101289 WO2018058622A1 (zh) | 2016-09-30 | 2016-09-30 | 一种帧间预测的图像编解码方法和装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020079569A Division JP6968228B2 (ja) | 2016-09-30 | 2020-04-28 | インター予測を介する画像符号化および復号のための方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019530362A JP2019530362A (ja) | 2019-10-17 |
JP6700489B2 true JP6700489B2 (ja) | 2020-05-27 |
Family
ID=61763050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019517277A Active JP6700489B2 (ja) | 2016-09-30 | 2016-09-30 | インター予測を介する画像符号化および復号のための方法および装置 |
Country Status (11)
Country | Link |
---|---|
US (1) | US11039144B2 (ja) |
EP (1) | EP3509304B1 (ja) |
JP (1) | JP6700489B2 (ja) |
KR (2) | KR102322437B1 (ja) |
CN (1) | CN109479143B (ja) |
AU (1) | AU2016425069B2 (ja) |
BR (1) | BR112019005678B1 (ja) |
MX (1) | MX2019003549A (ja) |
MY (1) | MY194555A (ja) |
RU (1) | RU2715010C1 (ja) |
WO (1) | WO2018058622A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019218286A1 (zh) | 2018-05-16 | 2019-11-21 | 华为技术有限公司 | 一种视频编解码方法和装置 |
KR102660666B1 (ko) | 2018-06-29 | 2024-04-26 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut들을 업데이트하기 위한 조건들 |
WO2020003284A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
CN110662053B (zh) | 2018-06-29 | 2022-03-25 | 北京字节跳动网络技术有限公司 | 使用查找表的视频处理方法、装置和存储介质 |
KR20240005240A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
BR112020024202A2 (pt) | 2018-06-29 | 2021-02-17 | Beijing Bytedance Network Technology Co., Ltd. | método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório |
WO2020003280A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Which lut to be updated or no updating |
KR20210024502A (ko) | 2018-06-29 | 2021-03-05 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝 |
KR20210025537A (ko) | 2018-06-29 | 2021-03-09 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념 |
EP4307679A2 (en) | 2018-07-02 | 2024-01-17 | Beijing Bytedance Network Technology Co., Ltd. | Luts with intra prediction modes and intra mode prediction from non-adjacent blocks |
BR112021000004A8 (pt) * | 2018-07-06 | 2023-02-07 | Mediatek Inc | Informações de movimento herdadas para decodificar uma unidade de codificação atual em um sistema de codificação de vídeo |
CN110858794B (zh) | 2018-08-24 | 2022-11-11 | 华为技术有限公司 | 多频段传输方法及装置 |
JP7242861B2 (ja) | 2018-09-04 | 2023-03-20 | 華為技術有限公司 | 二方向インター予測に適用される参照フレーム取得方法および装置 |
TWI820211B (zh) | 2018-09-12 | 2023-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 取決於總數減去k的開始檢查hmvp候選的條件 |
MX2021005271A (es) * | 2018-11-08 | 2021-06-18 | Guangdong Oppo Mobile Telecommunications Corp Ltd | Metodo de codificacion/decodificacion de se?ales de imagen y el aparato para el mismo. |
CN111263152B (zh) | 2018-11-30 | 2021-06-01 | 华为技术有限公司 | 视频序列的图像编解码方法和装置 |
EP3888355A4 (en) | 2019-01-10 | 2022-03-23 | Beijing Bytedance Network Technology Co., Ltd. | LOOKUP TABLE UPDATE INVOCATION |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
CN113615193A (zh) | 2019-03-22 | 2021-11-05 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
JP7303330B2 (ja) * | 2019-04-28 | 2023-07-04 | 北京字節跳動網絡技術有限公司 | 対称動きベクトル差分符号化 |
CN115037933B (zh) * | 2022-08-09 | 2022-11-18 | 浙江大华技术股份有限公司 | 一种帧间预测的方法及设备 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5778097A (en) * | 1996-03-07 | 1998-07-07 | Intel Corporation | Table-driven bi-directional motion estimation using scratch area and offset valves |
WO2003041385A2 (en) * | 2001-11-06 | 2003-05-15 | Matsushita Electric Industrial Co., Ltd. | Moving image coding method, and moving image decoding method |
CN1236624C (zh) * | 2003-09-04 | 2006-01-11 | 上海大学 | 多种块模式的快速整像素运动估计方法 |
EP1578137A2 (en) * | 2004-03-17 | 2005-09-21 | Matsushita Electric Industrial Co., Ltd. | Moving picture coding apparatus with multistep interpolation process |
JP2006080925A (ja) * | 2004-09-09 | 2006-03-23 | Toshiba Corp | 動画符号化装置、動画符号化方法および動画符号化プログラム |
KR20090008418A (ko) * | 2006-04-28 | 2009-01-21 | 가부시키가이샤 엔티티 도코모 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
JP2008011158A (ja) * | 2006-06-29 | 2008-01-17 | Matsushita Electric Ind Co Ltd | 動きベクトル探索方法及び動きベクトル探索装置 |
CN100551073C (zh) * | 2006-12-05 | 2009-10-14 | 华为技术有限公司 | 编解码方法及装置、分像素插值处理方法及装置 |
EP2269379B1 (en) | 2008-04-11 | 2019-02-27 | InterDigital Madison Patent Holdings | Methods and apparatus for template matching prediction (tmp) in video encoding and decoding |
JP2010028220A (ja) * | 2008-07-15 | 2010-02-04 | Sony Corp | 動きベクトル検出装置、動きベクトル検出方法、画像符号化装置及びプログラム |
CN102883160B (zh) | 2009-06-26 | 2016-06-29 | 华为技术有限公司 | 视频图像运动信息获取方法、装置及设备、模板构造方法 |
CN101860747B (zh) * | 2010-03-31 | 2012-05-23 | 北京大学 | 亚像素运动估计系统及方法 |
JP5304708B2 (ja) * | 2010-03-31 | 2013-10-02 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
KR101500914B1 (ko) | 2010-04-09 | 2015-03-10 | 미쓰비시덴키 가부시키가이샤 | 동화상 복호 장치 |
RU2565363C2 (ru) | 2011-01-07 | 2015-10-20 | Нокиа Корпорейшн | Предсказание движения при видеокодировании |
EP2675167B1 (en) * | 2011-02-10 | 2018-06-20 | Sun Patent Trust | Moving picture encoding method, moving picture encoding device, moving picture decoding method, moving picture decoding device, and moving picture encoding decoding device |
JP5649523B2 (ja) * | 2011-06-27 | 2015-01-07 | 日本電信電話株式会社 | 映像符号化方法,装置,映像復号方法,装置およびそれらのプログラム |
US9819963B2 (en) * | 2011-07-12 | 2017-11-14 | Electronics And Telecommunications Research Institute | Inter prediction method and apparatus for same |
KR101711355B1 (ko) * | 2011-09-28 | 2017-02-28 | 가부시키가이샤 제이브이씨 켄우드 | 동영상 디코딩 장치, 동영상 디코딩 방법 및 동영상 디코딩 프로그램을 저장한 기록매체 |
BR122020003071B1 (pt) * | 2011-10-17 | 2021-11-09 | Kabushiki Kaisha Toshiba | Método de decodificação e método de codificação |
US10958927B2 (en) * | 2015-03-27 | 2021-03-23 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
-
2016
- 2016-09-30 AU AU2016425069A patent/AU2016425069B2/en active Active
- 2016-09-30 EP EP16917372.1A patent/EP3509304B1/en active Active
- 2016-09-30 MY MYPI2019001630A patent/MY194555A/en unknown
- 2016-09-30 JP JP2019517277A patent/JP6700489B2/ja active Active
- 2016-09-30 BR BR112019005678-5A patent/BR112019005678B1/pt active IP Right Grant
- 2016-09-30 WO PCT/CN2016/101289 patent/WO2018058622A1/zh unknown
- 2016-09-30 CN CN201680088009.XA patent/CN109479143B/zh active Active
- 2016-09-30 MX MX2019003549A patent/MX2019003549A/es unknown
- 2016-09-30 KR KR1020217004758A patent/KR102322437B1/ko active IP Right Grant
- 2016-09-30 RU RU2019113299A patent/RU2715010C1/ru active
- 2016-09-30 KR KR1020197010259A patent/KR102219320B1/ko active IP Right Grant
-
2019
- 2019-04-01 US US16/371,499 patent/US11039144B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018058622A1 (zh) | 2018-04-05 |
AU2016425069B2 (en) | 2022-03-03 |
KR20190045935A (ko) | 2019-05-03 |
KR102219320B1 (ko) | 2021-02-23 |
MX2019003549A (es) | 2019-08-12 |
US11039144B2 (en) | 2021-06-15 |
JP2019530362A (ja) | 2019-10-17 |
MY194555A (en) | 2022-12-01 |
BR112019005678B1 (pt) | 2023-12-12 |
KR102322437B1 (ko) | 2021-11-05 |
RU2715010C1 (ru) | 2020-02-21 |
EP3509304A4 (en) | 2019-08-21 |
EP3509304A1 (en) | 2019-07-10 |
CN109479143B (zh) | 2020-09-08 |
BR112019005678A2 (pt) | 2019-06-11 |
EP3509304B1 (en) | 2023-11-01 |
US20190230362A1 (en) | 2019-07-25 |
KR20210021142A (ko) | 2021-02-24 |
CN109479143A (zh) | 2019-03-15 |
AU2016425069A1 (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700489B2 (ja) | インター予測を介する画像符号化および復号のための方法および装置 | |
US11558623B2 (en) | Bidirectional inter prediction method and terminal based on motion vector difference reduction | |
US20240022748A1 (en) | Picture Encoding and Decoding Method and Apparatus for Video Sequence | |
JP6968228B2 (ja) | インター予測を介する画像符号化および復号のための方法および装置 | |
JP7388610B2 (ja) | 映像符号化方法、映像復号方法、および端末 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190514 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200430 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6700489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |