JP7273154B2 - ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 - Google Patents
ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 Download PDFInfo
- Publication number
- JP7273154B2 JP7273154B2 JP2021530828A JP2021530828A JP7273154B2 JP 7273154 B2 JP7273154 B2 JP 7273154B2 JP 2021530828 A JP2021530828 A JP 2021530828A JP 2021530828 A JP2021530828 A JP 2021530828A JP 7273154 B2 JP7273154 B2 JP 7273154B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- prediction
- motion vector
- predicted
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本出願は、ビデオピクチャ技術に関し、特に、ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置に関する。
デコードすべきブロックの動き情報を決定するステップであり、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される、ステップと、動き情報に基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得するステップと、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得するステップであり、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定される、ステップと、第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得するステップと、少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得するステップと、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、デコードすべきブロックの対象予測動きベクトルとして、デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用するステップと、対象予測動きベクトルに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードするステップと、を含む。
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用すること、又は
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用することを含む。
上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから下ブロックを除外することであり、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定されること、又は
下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから上ブロックを除外すること、又は
左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから右ブロックを除外することであり、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得されること、又は
右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから左ブロックを除外することを含む。
下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであり、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであることをさらに含む。
上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであることを含む。
動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用すること、又は
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用することを含む。
上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから下ブロックを除外することであり、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定されること、又は
下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから上ブロックを除外すること、又は
左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから右ブロックを除外することであり、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得されること、又は
右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから左ブロックを除外することを含む。
下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであり、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、
下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、
上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、又は
上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであることをさらに含む。
上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであることを含む。
動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
少なくとも2つの第2のエンコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
デコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
動き情報に基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得し;予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得し、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定され;第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、デコードすべきブロックの対象予測動きベクトルとして、デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用するように構成された処理モジュールと、
対象予測動きベクトルに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードするように構成されたデコーディングモジュールと、を含む。
エンコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
動き情報に基づいてエンコードすべきブロックの第1のエンコーディング予測ブロックを取得し;予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得し、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定され;第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、エンコードすべきブロックの対象予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用するように構成された処理モジュールと、
対象予測動きベクトルに基づいてエンコードすべきブロックの対象エンコーディング予測ブロックを取得し、対象エンコーディング予測ブロックに基づいてエンコードすべきブロックをエンコードするように構成されたエンコーディングモジュールと、を含む。
1つ以上のコントローラと、
1つ以上のプログラムを記憶するように構成されたメモリと、を含み、
1つ以上のプログラムが1つ以上のプロセッサにより実行されたとき、1つ以上のプロセッサは第1の態様又は第2の態様による方法を実施することを可能にされる、コーデックデバイス。
Claims (19)
- ビデオシーケンスのためのピクチャデコーディング方法であって、
デコードすべきブロックの動き情報を決定するステップであり、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される、ステップと、
前記動き情報に基づいて前記デコードすべきブロックの第1のデコーディング予測ブロックを取得するステップと、
前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得するステップであり、前記動き探索の探索位置は、前記予測動きベクトル及び前記第1の精度に基づいて決定される、ステップと、
前記第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得するステップと、
前記少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得するステップと、
前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記デコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用するステップと、
前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得するステップであり、
前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルである、ステップと、
前記第1の対象予測動きベクトルに基づいて前記デコードすべきブロックの第1の対象デコーディング予測ブロックを取得するステップと、
前記第2の対象予測動きベクトルに基づいて前記デコードすべきブロックの第2の対象デコーディング予測ブロックを取得するステップと、
前記第1の対象デコーディング予測ブロック及び前記第2の対象デコーディング予測ブロックに基づいて前記デコードすべきブロックをデコードするステップと、
を含む方法。 - 前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算することは、
前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用すること、又は
前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用すること
を含む、請求項1に記載の方法。 - 前記少なくとも2つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
前記上ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記下ブロックを除外することであり、前記ベースブロックは、前記予測動きベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記対象オフセットは、前記第1の精度に基づいて決定されること、又は
前記下ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記上ブロックを除外すること、又は
前記左ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記右ブロックを除外することであり、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得されること、又は
前記右ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記左ブロックを除外すること
を含む、請求項1又は2に記載の方法。 - 前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
前記下ブロック及び前記右ブロックが除外されているとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得することであり、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
前記下ブロック及び前記左ブロックが除外されているとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得することであり、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
前記上ブロック及び前記左ブロックが除外されているとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得することであり、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
前記上ブロック及び前記右ブロックが除外されているとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得することであり、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること
をさらに含む、請求項3に記載の方法。 - 前記少なくとも2つの第2のデコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得することであり、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得され、前記対象オフセットは前記第1の精度に基づいて決定されること、又は
前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記右ブロックに対応する差が前記左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得することであり、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得することであり、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得することであり、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること
を含む、請求項1又は2に記載の方法。 - デコードすべきブロックの動き情報を決定した後、当該方法は、
前記予測動きベクトルを上方又は下方に丸めるステップ
をさらに含む請求項1乃至5のうちいずれか1項に記載の方法。 - 前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得した後、当該方法は、
前記少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるステップ
をさらに含む請求項1乃至6のうちいずれか1項に記載の方法。 - ビデオシーケンスのためのピクチャデコーディング装置であって、
デコードすべきブロックの動き情報を決定し、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
前記動き情報に基づいて前記デコードすべきブロックの第1のデコーディング予測ブロックを取得し;前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得し、前記動き探索の探索位置は、前記予測動きベクトル及び前記第1の精度に基づいて決定され;前記第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;前記少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記デコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用し;前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得し、
前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルであるように構成された処理モジュールと、
前記第1の対象予測動きベクトルに基づいて前記デコードすべきブロックの第1の対象デコーディング予測ブロックを取得し;前記第2の対象予測動きベクトルに基づいて前記デコードすべきブロックの第2の対象デコーディング予測ブロックを取得し;前記第1の対象デコーディング予測ブロック及び前記第2の対象デコーディング予測ブロックに基づいて前記デコードすべきブロックをデコードするように構成されたデコーディングモジュールと、
を含む装置。 - 前記処理モジュールは、具体的に、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用し;あるいは、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用するように構成される、請求項8に記載の装置。
- 前記少なくとも2つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記処理モジュールは、具体的に、前記上ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記下ブロックを除外し、前記ベースブロックは、前記予測動きベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記対象オフセットは、前記第1の精度に基づいて決定され;あるいは、前記下ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記上ブロックを除外し;あるいは、前記左ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記右ブロックを除外し、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得され;あるいは、前記右ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記左ブロックを除外するように構成される、請求項8又は9に記載の装置。
- 前記処理モジュールは、さらに、前記下ブロック及び前記右ブロックが除外されているとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得し、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;前記下ブロック及び前記左ブロックが除外されているとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得し、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;前記上ブロック及び前記左ブロックが除外されているとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得し、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、前記上ブロック及び前記右ブロックが除外されているとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得し、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される、請求項10に記載の装置。
- 前記少なくとも2つの第2のデコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記処理モジュールは、具体的に、前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得し、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得され、前記対象オフセットは前記第1の精度に基づいて決定され;あるいは、前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記右ブロックに対応する差が前記左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得し、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得し、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得し、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される、請求項8又は9に記載の装置。
- 前記処理モジュールは、さらに、前記予測動きベクトルを上方又は下方に丸めるように構成される、請求項8乃至12のうちいずれか1項に記載の装置。
- 前記処理モジュールは、さらに、前記少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるように構成される、請求項8乃至13のうちいずれか1項に記載の装置。
- プロセッサに請求項1乃至7のうちいずれか1項に記載の方法を実行させるコンピュータプログラム。
- ビデオシーケンスのためのピクチャエンコーディング方法であって、
エンコードすべきブロックの動き情報を決定するステップであり、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される、ステップと、
前記動き情報に基づいて前記エンコードすべきブロックの第1のエンコーディング予測ブロックを取得するステップと、
前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得するステップと、
前記第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得するステップと、
前記少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得するステップと、
前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記エンコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用するステップと、
前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得するステップであり、
前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルである、ステップと、
前記第1の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第1の対象エンコーディング予測ブロックを取得するステップと、
前記第2の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第2の対象エンコーディング予測ブロックを取得するステップと、
前記第1の対象エンコーディング予測ブロック及び前記第2の対象エンコーディング予測ブロックに基づいて前記エンコードすべきブロックをエンコードするステップと、
を含む方法。 - 前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算することは、
前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用すること、又は
前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用すること
を含む、請求項16に記載の方法。 - ビデオシーケンスのためのピクチャエンコーディング装置であって、
エンコードすべきブロックの動き情報を決定し、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
前記動き情報に基づいて前記エンコードすべきブロックの第1のエンコーディング予測ブロックを取得し;前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得し;前記第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;前記少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記エンコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用し、前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得し、
前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルであるように構成された処理モジュールと、
前記第1の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第1の対象エンコーディング予測ブロックを取得し;前記第2の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第2の対象エンコーディング予測ブロックを取得し;前記第1の対象エンコーディング予測ブロック及び前記第2の対象エンコーディング予測ブロックに基づいて前記エンコードすべきブロックをエンコードするように構成されたエンコーディングモジュールと、
を含む装置。 - 前記処理モジュールは、具体的に、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用し;あるいは、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用するように構成される、請求項18に記載の装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023072944A JP2023100767A (ja) | 2018-11-30 | 2023-04-27 | ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811458677.4 | 2018-11-30 | ||
CN201811458677.4A CN111263152B (zh) | 2018-11-30 | 2018-11-30 | 视频序列的图像编解码方法和装置 |
PCT/CN2019/098151 WO2020107921A1 (zh) | 2018-11-30 | 2019-07-29 | 视频序列的图像编解码方法和装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023072944A Division JP2023100767A (ja) | 2018-11-30 | 2023-04-27 | ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509982A JP2022509982A (ja) | 2022-01-25 |
JP7273154B2 true JP7273154B2 (ja) | 2023-05-12 |
Family
ID=70854462
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021530828A Active JP7273154B2 (ja) | 2018-11-30 | 2019-07-29 | ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 |
JP2023072944A Pending JP2023100767A (ja) | 2018-11-30 | 2023-04-27 | ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023072944A Pending JP2023100767A (ja) | 2018-11-30 | 2023-04-27 | ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 |
Country Status (9)
Country | Link |
---|---|
US (3) | US11503317B2 (ja) |
JP (2) | JP7273154B2 (ja) |
KR (1) | KR20210094038A (ja) |
CN (2) | CN111263152B (ja) |
BR (1) | BR112021010415A2 (ja) |
CA (1) | CA3121402C (ja) |
MX (1) | MX2021006391A (ja) |
SG (1) | SG11202105655SA (ja) |
WO (1) | WO2020107921A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111263152B (zh) * | 2018-11-30 | 2021-06-01 | 华为技术有限公司 | 视频序列的图像编解码方法和装置 |
US11412253B2 (en) * | 2020-02-24 | 2022-08-09 | Alibaba Group Holding Limited | Methods for combining decoder side motion vector refinement with wrap-around motion compensation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019234672A1 (en) | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Partial cost calculation |
WO2020008343A1 (en) | 2018-07-02 | 2020-01-09 | Beijing Bytedance Network Technology Co., Ltd. | Block size restrictions for dmvr |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6671321B1 (en) * | 1999-08-31 | 2003-12-30 | Mastsushita Electric Industrial Co., Ltd. | Motion vector detection device and motion vector detection method |
KR100534207B1 (ko) * | 2002-12-09 | 2005-12-08 | 삼성전자주식회사 | 비디오 부호화기의 움직임 추정기 및 그 방법 |
KR100994773B1 (ko) * | 2004-03-29 | 2010-11-16 | 삼성전자주식회사 | 계층적 움직임 추정에 있어서 움직임 벡터 생성 방법 및장치 |
CN101340578A (zh) * | 2007-07-03 | 2009-01-07 | 株式会社日立制作所 | 运动矢量估计装置、编码器及摄像机 |
CN101605256A (zh) * | 2008-06-12 | 2009-12-16 | 华为技术有限公司 | 一种视频编解码的方法及装置 |
CN102883160B (zh) | 2009-06-26 | 2016-06-29 | 华为技术有限公司 | 视频图像运动信息获取方法、装置及设备、模板构造方法 |
CN102316317B (zh) | 2010-07-10 | 2013-04-24 | 华为技术有限公司 | 一种生成图像预测值的方法和装置 |
US9706221B2 (en) * | 2013-10-29 | 2017-07-11 | Vixs Systems Inc. | Motion search with scaled and unscaled pictures |
US10484721B2 (en) | 2014-03-17 | 2019-11-19 | Qualcomm Incorporated | Method for motion estimation of non-natural video data |
CN106331703B (zh) * | 2015-07-03 | 2020-09-08 | 华为技术有限公司 | 视频编码和解码方法、视频编码和解码装置 |
MY194555A (en) | 2016-09-30 | 2022-12-01 | Huawei Tech Co Ltd | Method and Apparatus for Image Coding and Decoding Through Inter Prediction |
US10750203B2 (en) * | 2016-12-22 | 2020-08-18 | Mediatek Inc. | Method and apparatus of adaptive bi-prediction for video coding |
JP2018148486A (ja) * | 2017-03-08 | 2018-09-20 | キヤノン株式会社 | 画像符号化装置、画像符号化方法、及びプログラム |
JP6435029B2 (ja) * | 2017-09-28 | 2018-12-05 | 日本電信電話株式会社 | 映像符号化装置及び映像符号化プログラム |
US10542277B2 (en) * | 2017-10-24 | 2020-01-21 | Arm Limited | Video encoding |
CN108900847B (zh) * | 2018-06-11 | 2020-06-30 | 阿依瓦(北京)技术有限公司 | 一种基于块匹配的大范围预测方法 |
CN111263152B (zh) * | 2018-11-30 | 2021-06-01 | 华为技术有限公司 | 视频序列的图像编解码方法和装置 |
-
2018
- 2018-11-30 CN CN201811458677.4A patent/CN111263152B/zh active Active
-
2019
- 2019-07-29 KR KR1020217019599A patent/KR20210094038A/ko not_active Application Discontinuation
- 2019-07-29 CA CA3121402A patent/CA3121402C/en active Active
- 2019-07-29 SG SG11202105655SA patent/SG11202105655SA/en unknown
- 2019-07-29 CN CN201980076071.0A patent/CN113412619A/zh active Pending
- 2019-07-29 WO PCT/CN2019/098151 patent/WO2020107921A1/zh unknown
- 2019-07-29 BR BR112021010415-1A patent/BR112021010415A2/pt unknown
- 2019-07-29 JP JP2021530828A patent/JP7273154B2/ja active Active
- 2019-07-29 MX MX2021006391A patent/MX2021006391A/es unknown
-
2021
- 2021-05-28 US US17/334,068 patent/US11503317B2/en active Active
-
2022
- 2022-10-12 US US17/964,166 patent/US11818379B2/en active Active
-
2023
- 2023-04-27 JP JP2023072944A patent/JP2023100767A/ja active Pending
- 2023-09-28 US US18/477,167 patent/US20240022748A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019234672A1 (en) | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Partial cost calculation |
WO2020008343A1 (en) | 2018-07-02 | 2020-01-09 | Beijing Bytedance Network Technology Co., Ltd. | Block size restrictions for dmvr |
Non-Patent Citations (2)
Title |
---|
Hongbin Liu et al.,CE9-related: Simplification of Decoder Side Motion Vector Derivation,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0105-v1,2018年07月13日 |
Semih Esenlik et al.,Simplified DMVR for inclusion in VVC,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0670,2018年10月06日 |
Also Published As
Publication number | Publication date |
---|---|
MX2021006391A (es) | 2021-09-10 |
KR20210094038A (ko) | 2021-07-28 |
EP3879827A1 (en) | 2021-09-15 |
CN113412619A (zh) | 2021-09-17 |
CA3121402A1 (en) | 2020-06-04 |
BR112021010415A2 (pt) | 2021-08-24 |
WO2020107921A1 (zh) | 2020-06-04 |
CA3121402C (en) | 2024-03-05 |
CN111263152B (zh) | 2021-06-01 |
SG11202105655SA (en) | 2021-06-29 |
US20210289220A1 (en) | 2021-09-16 |
CN111263152A (zh) | 2020-06-09 |
US20230030845A1 (en) | 2023-02-02 |
US11503317B2 (en) | 2022-11-15 |
US11818379B2 (en) | 2023-11-14 |
JP2023100767A (ja) | 2023-07-19 |
US20240022748A1 (en) | 2024-01-18 |
JP2022509982A (ja) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6881788B2 (ja) | 映像符号化方法、映像復号方法、および端末 | |
KR102219320B1 (ko) | 인터 프레임 예측을 위한 이미지 코딩 및 디코딩을 위한 방법 및 디바이스 | |
EP3531698A1 (en) | Deblocking filter method and terminal | |
CN109218733B (zh) | 一种确定预测运动矢量预测的方法以及相关设备 | |
JP2023100767A (ja) | ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 | |
JP2023017955A (ja) | 動きベクトル取得方法および装置 | |
KR20200132985A (ko) | 양방향 인트라 예측 시그널링 | |
CN112352434B (zh) | 用于帧内预测的基于宽高比滤波的方法和装置 | |
JP7279084B2 (ja) | イントラ予測のための方法及び装置 | |
CN113557738B (zh) | 视频图像预测方法及装置 | |
JP6968228B2 (ja) | インター予測を介する画像符号化および復号のための方法および装置 | |
JP7036893B2 (ja) | 映像符号化方法、映像復号方法、および端末 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210706 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7273154 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |