JP7273154B2 - ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 - Google Patents

ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 Download PDF

Info

Publication number
JP7273154B2
JP7273154B2 JP2021530828A JP2021530828A JP7273154B2 JP 7273154 B2 JP7273154 B2 JP 7273154B2 JP 2021530828 A JP2021530828 A JP 2021530828A JP 2021530828 A JP2021530828 A JP 2021530828A JP 7273154 B2 JP7273154 B2 JP 7273154B2
Authority
JP
Japan
Prior art keywords
block
prediction
motion vector
predicted
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021530828A
Other languages
English (en)
Other versions
JP2022509982A (ja
Inventor
チェン,シュイ
ジャン,ジアンホア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2022509982A publication Critical patent/JP2022509982A/ja
Priority to JP2023072944A priority Critical patent/JP2023100767A/ja
Application granted granted Critical
Publication of JP7273154B2 publication Critical patent/JP7273154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本出願は、2018年11月30日に中国国家知識産権局に出願され「PICTURE ENCODING AND DECODING METHOD AND APPARATUS FOR VIDEO SEQUENCE」と題された中国特許出願第201811458677.4号に対する優先権を主張し、該出願はその全体を参照により本明細書に組み込まれる。
[技術分野]
本出願は、ビデオピクチャ技術に関し、特に、ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置に関する。
ビデオエンコーディング及びデコーディングフレームワークでは、ビデオシーケンスのエンコーディング及びデコーディングのために、ハイブリッド符号化構造が通常使用される。ハイブリッド符号化構造のエンコーダ側は、予測モジュール、変換モジュール、量子化モジュール、及びエントロピーエンコーディングモジュールを一般に含む。ハイブリッド符号化構造のデコーダ側は、エントロピーデコーディングモジュール、逆量子化モジュール、逆変換モジュール、及び予測補償モジュールを一般に含む。これらのエンコーディング及びデコーディングモジュールの組み合わせは、ビデオシーケンスから冗長情報を効果的に削除し、ビデオシーケンスの符号化ピクチャがデコーダ側で取得されることを確実にすることができる。ビデオエンコーディング及びデコーディングフレームワークにおいて、ビデオシーケンス内のピクチャは、符号化のためにピクチャブロックに通常分割され、すなわち、ピクチャのフレームは、いくつかのピクチャブロックに分割され、エンコーディング及びデコーディングは、前述のモジュールを使用することによりこれらのピクチャブロックに基づいて実行される。
前述のモジュールにおいて、予測モジュール及び予測補償モジュールは、2つの技術、すなわちイントラ予測(intra prediction)及びインター予測(inter prediction)を使用することができる。インター予測技術では、予測すべきピクチャ内のカレントピクチャブロックの冗長情報を効果的に除去するために、デコーダ側動きベクトル改良(decoder-side motion vector refinement、略称DMVR)技術が使用される。
しかしながら、DMVR技術の計算複雑性は比較的高い。
本出願は、差比較の計算量を低減し、ピクチャ符号化効率を改善するための、ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置を提供する。
第1の態様によれば、本出願は、ビデオシーケンスのためのピクチャデコーディング方法を提供する。当該方法は、
デコードすべきブロックの動き情報を決定するステップであり、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される、ステップと、動き情報に基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得するステップと、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得するステップであり、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定される、ステップと、第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得するステップと、少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得するステップと、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、デコードすべきブロックの対象予測動きベクトルとして、デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用するステップと、対象予測動きベクトルに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードするステップと、を含む。
本出願において、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のデコーディング予測ブロックの数量は低減され、ピクチャブロック内のピクセルがサンプリングされ、それにより、差比較の計算量が低減され、ピクチャデコーディング効率が改善される。
可能な一実装において、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算することは、
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用すること、又は
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用することを含む。
この実装の有益な効果は、差を決定するために異なる方法が使用され、異なるレベルの複雑性を有する複数の解決策が提供されることである。
可能な一実装において、少なくとも2つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから下ブロックを除外することであり、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定されること、又は
下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから上ブロックを除外すること、又は
左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから右ブロックを除外することであり、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得されること、又は
右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから左ブロックを除外することを含む。
可能な一実装において、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであり、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであることをさらに含む。
この実装の有益な効果は、探索点の数量が低減され、実装の複雑性が低減されることである。
可能な一実装において、少なくとも2つの第2のデコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであり、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、対象オフセットは第1の精度に基づいて決定されること、又は
上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであることを含む。
この実装の有益な効果は、探索点の数量が低減され、実装の複雑性が低減されることである。
可能な一実装において、デコードすべきブロックの動き情報を決定した後、当該方法は、
動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
この実装の有益な効果は、動きベクトルが整数でないため必要とされる参照ピクチャ補間プロセスが必要とされず、実装の複雑性が低減されることである。
可能な一実装において、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得した後、当該方法は、
少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
この実装の有益な効果は、動きベクトルが整数でないため必要とされる参照ピクチャ補間プロセスが必要とされず、実装の複雑性が低減されることである。
第2の態様によれば、本出願は、ビデオシーケンスのためのピクチャエンコーディング方法を提供する。当該方法は、エンコードすべきブロックの動き情報を決定するステップであり、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される、ステップと、動き情報に基づいてエンコードすべきブロックの第1のエンコーディング予測ブロックを取得するステップと、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得するステップであり、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定される、ステップと、第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得するステップと、少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得するステップと、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、エンコードすべきブロックの対象予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用するステップと、対象予測動きベクトルに基づいてエンコードすべきブロックの対象エンコーディング予測ブロックを取得し、対象エンコーディング予測ブロックに基づいてエンコードすべきブロックをエンコードするステップと、を含む。
本出願において、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のエンコーディング予測ブロックの数量は低減され、ピクチャブロック内のピクセルがサンプリングされ、それにより、差比較の計算量が低減され、ピクチャエンコーディング効率が改善される。
可能な一実装において、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算することは、
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用すること、又は
第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用することを含む。
可能な一実装において、少なくとも2つの第2のエンコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得することは、
上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから下ブロックを除外することであり、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定されること、又は
下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから上ブロックを除外すること、又は
左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから右ブロックを除外することであり、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得されること、又は
右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから左ブロックを除外することを含む。
可能な一実装において、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得することは、
下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであり、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、
下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、
上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、又は
上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであることをさらに含む。
可能な一実装において、少なくとも2つの第2のエンコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得することは、上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであり、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、対象オフセットは第1の精度に基づいて決定されること、又は
上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであり、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであり、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであること、又は
下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであり、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであることを含む。
可能な一実装において、エンコードすべきブロックの動き情報を決定した後、当該方法は、
動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
可能な一実装において、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得した後、当該方法は、
少なくとも2つの第2のエンコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるステップ、をさらに含む。
第3の態様によれば、本出願は、ビデオシーケンスのためのピクチャデコーディング装置を提供する。当該装置は、
デコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
動き情報に基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得し;予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得し、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定され;第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、デコードすべきブロックの対象予測動きベクトルとして、デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用するように構成された処理モジュールと、
対象予測動きベクトルに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードするように構成されたデコーディングモジュールと、を含む。
本出願において、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のデコーディング予測ブロックの数量は低減され、ピクチャブロック内のピクセルがサンプリングされ、それにより、差比較の計算量が低減され、ピクチャデコーディング効率が改善される。
可能な一実装において、処理モジュールは、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用し;あるいは、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用するように構成される。
可能な一実装において、少なくとも2つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含む。処理モジュールは、具体的に、上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから下ブロックを除外し、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定され;あるいは、下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから上ブロックを除外し;あるいは、左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから右ブロックを除外し、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され;あるいは、右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから左ブロックを除外するように構成される。
可能な一実装において、処理モジュールは、さらに、下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得し、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得し、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得し、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得し、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される。
可能な一実装において、少なくとも2つの第2のデコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含む。処理モジュールは、具体的に、上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得し、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、対象オフセットは第1の精度に基づいて決定され;あるいは、上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得し、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得し、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得し、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される。
可能な一実装において、処理モジュールは、さらに、動きベクトルを上方又は下方に丸めるように構成される。
可能な一実装において、処理モジュールは、さらに、少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるように構成される。
第4の態様によれば、本出願は、ビデオシーケンスのためのピクチャエンコーディング装置を提供する。当該装置は、
エンコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
動き情報に基づいてエンコードすべきブロックの第1のエンコーディング予測ブロックを取得し;予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得し、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定され;第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、エンコードすべきブロックの対象予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用するように構成された処理モジュールと、
対象予測動きベクトルに基づいてエンコードすべきブロックの対象エンコーディング予測ブロックを取得し、対象エンコーディング予測ブロックに基づいてエンコードすべきブロックをエンコードするように構成されたエンコーディングモジュールと、を含む。
本出願において、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のエンコーディング予測ブロックの数量は低減され、ピクチャブロック内のピクセルがサンプリングされ、それにより、差比較の計算量が低減され、ピクチャエンコーディング効率が改善される。
可能な一実装において、処理モジュールは、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用し;あるいは、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用するように構成される。
可能な一実装において、少なくとも2つの第2のエンコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含む。処理モジュールは、具体的に、上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから下ブロックを除外し、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定され;あるいは、下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから上ブロックを除外し;あるいは、左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから右ブロックを除外し、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され;あるいは、右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから左ブロックを除外するように構成される。
可能な一実装において、処理モジュールは、さらに、下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得し、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり;下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得し、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり;上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得し、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり;あるいは、上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得し、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであるように構成される。
可能な一実装において、少なくとも2つの第2のエンコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含む。処理モジュールは、具体的に、上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得し、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、対象オフセットは第1の精度に基づいて決定され;あるいは、上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得し、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり;あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得し、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり;あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得し、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであるように構成される。
可能な一実装において、処理モジュールは、さらに、動きベクトルを上方又は下方に丸めるように構成される。
可能な一実装において、処理モジュールは、さらに、少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるように構成される。
第5の態様によれば、本出願は、コーデックデバイスを提供し、当該コーデックデバイスは、
1つ以上のコントローラと、
1つ以上のプログラムを記憶するように構成されたメモリと、を含み、
1つ以上のプログラムが1つ以上のプロセッサにより実行されたとき、1つ以上のプロセッサは第1の態様又は第2の態様による方法を実施することを可能にされる、コーデックデバイス。
第6の態様によれば、本出願は、コンピュータ読取可能記憶媒体を提供する。コンピュータ読取可能記憶媒体は命令を記憶し、命令がコンピュータ上で実行されたとき、コンピュータは、第1の態様又は第2の態様に記載の方法を実行するように構成される。
第7の態様によれば、本出願は、コンピュータプログラムを提供する。コンピュータプログラムがコンピュータにより実行されたとき、コンピュータは、第1の態様又は第2の態様に記載の方法を実行するように構成される。
本発明の実施形態又は従来技術における技術的解決策をより明確に説明するために、以下では、実施形態又は従来技術を説明するために必要な添付の図面について簡潔に説明する。明らかに、以下の説明における添付図面は、単に本発明のいくつかの実施形態を示しており、当業者は、創造的努力なしにこれら添付図面から他の図面を導き出し得る。
本出願によるビデオシーケンスのためのピクチャデコーディング方法の実施形態1のフローチャートである。 本出願によるビデオシーケンスのためのピクチャデコーディング方法の実施形態2のフローチャートである。 本出願によるビデオシーケンスのためのピクチャエンコーディング方法の実施形態1のフローチャートである。 本出願によるビデオシーケンスのためのピクチャエンコーディング方法の実施形態2のフローチャートである。 本出願によるビデオシーケンスのためのピクチャデコーディング装置の一実施形態の概略構造図である。 本出願によるビデオシーケンスのためのピクチャエンコーディング装置の一実施形態の概略構造図である。 本出願によるコーデックデバイスの一実施形態の概略構造図である。 本出願によるコーデックシステムの一実施形態の概略構造図である。 本出願の一実施形態による探索点の位置を決定する一例の概略図である。
以下では、本発明の実施形態における添付図面を参照して、本発明の実施形態における技術的解決策について明確及び完全に説明する。説明される実施形態は、本発明の実施形態の単に一部であり全てでないことは明らかである。創造的努力なしに本発明の実施形態に基づいて当業者により取得される全て他の実施形態が、本発明の保護範囲内に入るものとする。
DMVR技術におけるインター予測ピクチャエンコーディング方法の手順は以下のとおりである。
1.エンコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。
エンコードすべきブロックは、エンコードされるべきカレントの(current)ピクチャブロックである。動き情報における予測動きベクトルは、順方向(forward)予測動きベクトル及び逆方向(backward)予測動きベクトルを含む。参照ピクチャ情報は、順方向予測参照ピクチャブロック及び逆方向予測参照ピクチャブロックの参照フレームインデックス情報(すなわち、順方向及び逆方向予測参照ピクチャブロックのピクチャ順序カウント(Picture Order Count、略称POC))を含む。エンコードすべきブロックの予測参照ピクチャブロックは、エンコードすべきブロックの予測動きベクトル又は参照ピクチャ情報に基づいて取得され得る。
2.動き情報に基づいてエンコードすべきブロックに対して双方向予測を実行して、エンコードすべきブロックの初期エンコーディング予測ブロックを取得し、初期エンコーディング予測ブロックに基づいてエンコードすべきブロックの第1のエンコーディング予測ブロックを取得する。
予測参照ピクチャブロックに対応するPOCが、エンコードすべきブロックのPOCに等しくないとき、順方向予測及び逆方向予測を含む双方向予測が、動き情報に基づいてエンコードすべきブロックに対して実行される。動き情報に基づいてエンコードすべきブロックに対して順方向予測を実行し、すなわち、順方向動き情報に基づいてエンコードすべきブロックに対して順方向予測を実行して、エンコードすべきブロックの順方向初期エンコーディング予測ブロックを取得することは、動き情報中の順方向予測参照ピクチャブロックに基づいてエンコードすべきブロックに対して順方向予測を実行して、エンコードすべきブロックの順方向初期エンコーディング予測ブロックを取得すること、又は、動き情報中の順方向予測動きベクトルに基づいてエンコードすべきブロックに対して順方向予測を実行して、エンコードすべきブロックの順方向初期エンコーディング予測ブロックを取得することを含む。動き情報に基づいてエンコードすべきブロックに対して逆方向予測を実行し、すなわち、逆方向動き情報に基づいてエンコードすべきブロックに対して逆方向予測を実行して、エンコードすべきブロックの逆方向初期エンコーディング予測ブロックを取得することは、動き情報中の逆方向予測参照ピクチャブロックに基づいてエンコードすべきブロックに対して方向予測を実行して、エンコードすべきブロックの方向初期エンコーディング予測ブロックを取得すること、又は、動き情報中の逆方向予測動きベクトルに基づいてエンコードすべきブロックに対して方向予測を実行して、エンコードすべきブロックの方向初期エンコーディング予測ブロックを取得することを含む。
初期エンコーディング予測ブロックに基づいてエンコードすべきブロックの第1のエンコーディング予測ブロックを取得することは、以下の3つの実装を含む。1つの実装は、順方向初期エンコーディング予測ブロック及び逆方向初期エンコーディング予測ブロックに対して重み付き総和(weighted summation)を実行して、エンコードすべきブロックの第1のエンコーディング予測ブロックを取得することである。別の実装は、エンコードすべきブロックの第1のエンコーディング予測ブロックとして、順方向初期エンコーディング予測ブロックを使用することである。最後の実装は、エンコードすべきブロックの第1のエンコーディング予測ブロックとして、逆方向初期エンコーディング予測ブロックを使用することである。
3.予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して、少なくとも1つの第2のエンコーディング予測ブロックを取得する。
動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定される。実現可能な一実装において、動き探索の位置は、予測動きベクトルにより識別される位置の周りの、第1の精度における位置である。例えば、予測動きベクトルにより識別される位置は(1, 1)であり、第1の精度は1/2ピクセル精度である。この場合、動き探索の位置は、合計で9つの位置、すなわち、(1, 1)、(1, 1)の上の(1, 1.5)、(1, 1)の下の(1, 0.5)、左の(0.5, 1)、右の(1.5, 1)、右上の(1.5, 1.5)、右下の(1.5, 0.5)、左上の(0.5, 1.5)、及び左下の(0.5, 0.5)を含む。
第1の精度での動き探索は、順方向予測動きベクトルに基づいて順方向予測参照ピクチャブロックに対して実行されてもよく、各探索で取得された順方向エンコーディング予測ブロックは、少なくとも1つの第2のエンコーディング予測ブロックを取得するために、第2の順方向エンコーディング予測ブロックとして使用される。次いで、第1の精度での動き探索は、逆方向予測動きベクトルに基づいて逆方向予測参照ピクチャブロックに対して実行され、各探索で取得された逆方向エンコーディング予測ブロックは、少なくとも1つの第2のエンコーディング予測ブロックを取得するために、第2の逆方向エンコーディング予測ブロックとして使用される。第2のエンコーディング予測ブロックは、第2の順方向エンコーディング予測ブロック及び第2の逆方向エンコーディング予測ブロックを含む。第1の精度は、整数ピクセル精度、1/2ピクセル精度、1/4ピクセル精度、又は1/8ピクセル精度を含み、これは限定されない。
4.第1のエンコーディング予測ブロックと各第2のエンコーディング予測ブロックとの間の差を計算し、エンコードすべきブロックの対象(target)予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2のエンコーディング予測ブロックとの間の動きベクトルを使用する。
各第2の順方向エンコーディング予測ブロックと第1のエンコーディング予測ブロックとの間で、差比較が実行され、対象順方向予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2の順方向エンコーディング予測ブロックとの間の順方向動きベクトルが使用される。各第2の逆方向エンコーディング予測ブロックと第1のエンコーディング予測ブロックとの間で、差比較が実行され、対象逆方向予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2の逆方向エンコーディング予測ブロックとの間の逆方向動きベクトルが使用される。対象予測動きベクトルは、対象順方向予測動きベクトル及び対象逆方向予測動きベクトルを含む。差比較の間、2つのピクチャブロックにおける全てのピクセル差の絶対値の和が、第2のエンコーディング予測ブロックと第1のエンコーディング予測ブロックとの間の差として使用されてもよく、あるいは、2つのピクチャブロックにおける全てのピクセル差の二乗和が、第2のエンコーディング予測ブロックと第1のエンコーディング予測ブロックとの間の差として使用されてもよい。
5.対象予測動きベクトルに基づいてエンコードすべきブロックに対して双方向予測を実行して、エンコードすべきブロックの第3のエンコーディング予測ブロックを取得する。
順方向予測が、エンコードすべきブロックの第3の順方向エンコーディング予測ブロックを取得するために、対象順方向予測動きベクトルに基づいてエンコードすべきブロックに対して実行され、次いで、逆方向予測が、エンコードすべきブロックの第3の逆方向エンコーディング予測ブロックを取得するために、対象逆方向予測動きベクトルに基づいてエンコードすべきブロックに対して実行される。
6.第3のエンコーディング予測ブロックに基づいてエンコードすべきブロックの対象エンコーディング予測ブロックを取得し、対象エンコーディング予測ブロックに基づいてエンコードすべきブロックをエンコードする。
重み付き総和が、エンコードすべきブロックの対象エンコーディング予測ブロックを取得するために、第3の順方向エンコーディング予測ブロック及び第3の逆方向エンコーディング予測ブロックに対して実行されてもよく、あるいは、第3の順方向エンコーディング予測ブロックが、エンコードすべきブロックの対象エンコーディング予測ブロックとして使用されてもよく、あるいは、第3の逆方向エンコーディング予測ブロックが、エンコードすべきブロックの対象エンコーディング予測ブロックとして使用されてもよい。
DMVR技術におけるインター予測ピクチャデコーディング方法の手順は以下のとおりである。
1.デコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。
デコードすべきブロックは、デコードされるべきカレントのピクチャブロックである。動き情報における予測動きベクトルは、順方向予測動きベクトル及び逆方向予測動きベクトルを含む。参照ピクチャ情報は、順方向予測参照ピクチャブロック及び逆方向予測参照ピクチャブロックの参照フレームインデックス情報(すなわち、順方向及び逆方向予測参照ピクチャブロックのピクチャ順序カウント(Picture Order Count、略称POC))を含む。デコードすべきブロックの予測参照ピクチャブロックは、デコードすべきブロックの予測動きベクトル又は参照ピクチャ情報に基づいて取得され得る。
2.動き情報に基づいてデコードすべきブロックに対して双方向予測を実行して、デコードすべきブロックの初期デコーディング予測ブロックを取得し、初期デコーディング予測ブロックに基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得する。
予測参照ピクチャブロックに対応するPOCが、デコードすべきブロックのPOCに等しくないとき、順方向予測及び逆方向予測を含む双方向予測が、動き情報に基づいてデコードすべきブロックに対して実行される。動き情報に基づいてデコードすべきブロックに対して順方向予測を実行し、すなわち、順方向動き情報に基づいてデコードすべきブロックに対して順方向予測を実行して、デコードすべきブロックの順方向初期デコーディング予測ブロックを取得することは、動き情報中の順方向予測参照ピクチャブロックに基づいてデコードすべきブロックに対して順方向予測を実行して、デコードすべきブロックの順方向初期デコーディング予測ブロックを取得すること、又は、動き情報中の順方向予測動きベクトルに基づいてデコードすべきブロックに対して順方向予測を実行して、デコードすべきブロックの順方向初期デコーディング予測ブロックを取得することを含む。動き情報に基づいてデコードすべきブロックに対して逆方向予測を実行し、すなわち、逆方向動き情報に基づいてデコードすべきブロックに対して逆方向予測を実行して、デコードすべきブロックの逆方向初期デコーディング予測ブロックを取得することは、動き情報中の逆方向予測参照ピクチャブロックに基づいてデコードすべきブロックに対して方向予測を実行して、デコードすべきブロックの方向初期デコーディング予測ブロックを取得すること、又は、動き情報中の逆方向予測動きベクトルに基づいてデコードすべきブロックに対して方向予測を実行して、デコードすべきブロックの方向初期デコーディング予測ブロックを取得することを含む。
初期デコーディング予測ブロックに基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得することは、以下の3つの実装を含む。1つの実装は、順方向初期デコーディング予測ブロック及び逆方向初期デコーディング予測ブロックに対して重み付き総和を実行して、デコードすべきブロックの第1のデコーディング予測ブロックを取得することである。別の実装は、デコードすべきブロックの第1のデコーディング予測ブロックとして、順方向初期デコーディング予測ブロックを使用することである。最後の実装は、デコードすべきブロックの第1のデコーディング予測ブロックとして、逆方向初期デコーディング予測ブロックを使用することである。
3.予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して、少なくとも1つの第2のデコーディング予測ブロックを取得する。
動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定される。実現可能な一実装において、動き探索の位置は、予測動きベクトルにより識別される位置の周りの、第1の精度における位置である。例えば、予測動きベクトルにより識別される位置は(1, 1)であり、第1の精度は1/2ピクセル精度である。この場合、動き探索の位置は、合計で9つの位置、すなわち、(1, 1)、(1, 1)の上の(1, 1.5)、(1, 1)の下の(1, 0.5)、左の(0.5, 1)、右の(1.5, 1)、右上の(1.5, 1.5)、右下の(1.5, 0.5)、左上の(0.5, 1.5)、及び左下の(0.5, 0.5)を含む。
第1の精度での動き探索は、順方向予測動きベクトルに基づいて順方向予測参照ピクチャブロックに対して実行されてもよく、各探索で取得された順方向デコーディング予測ブロックは、少なくとも1つの第2のデコーディング予測ブロックを取得するために、第2の順方向デコーディング予測ブロックとして使用される。次いで、第1の精度での動き探索は、逆方向予測動きベクトルに基づいて逆方向予測参照ピクチャブロックに対して実行され、各探索で取得された逆方向デコーディング予測ブロックは、少なくとも1つの第2のデコーディング予測ブロックを取得するために、第2の逆方向デコーディング予測ブロックとして使用される。第2のデコーディング予測ブロックは、第2の順方向デコーディング予測ブロック及び第2の逆方向デコーディング予測ブロックを含む。第1の精度は、整数ピクセル精度、1/2ピクセル精度、1/4ピクセル精度、又は1/8ピクセル精度を含み、これは限定されない。
4.第1のデコーディング予測ブロックと各第2のデコーディング予測ブロックとの間の差を計算し、デコードすべきブロックの対象予測動きベクトルとして、デコードすべきブロックと最小差を有する第2のデコーディング予測ブロックとの間の動きベクトルを使用する。
各第2の順方向デコーディング予測ブロックと第1のデコーディング予測ブロックとの間で、差比較が実行され、対象順方向予測動きベクトルとして、デコードすべきブロックと最小差を有する第2の順方向デコーディング予測ブロックとの間の順方向動きベクトルが使用される。各第2の逆方向デコーディング予測ブロックと第1のデコーディング予測ブロックとの間で、差比較が実行され、対象逆方向予測動きベクトルとして、デコードすべきブロックと最小差を有する第2の逆方向デコーディング予測ブロックとの間の逆方向動きベクトルが使用される。対象予測動きベクトルは、対象順方向予測動きベクトル及び対象逆方向予測動きベクトルを含む。差比較の間、2つのピクチャブロックにおける全てのピクセル差の絶対値の和が、第2のデコーディング予測ブロックと第1のデコーディング予測ブロックとの間の差として使用されてもよく、あるいは、2つのピクチャブロックにおける全てのピクセル差の二乗和が、第2のデコーディング予測ブロックと第1のデコーディング予測ブロックとの間の差として使用されてもよい。
5.対象予測動きベクトルに基づいてデコードすべきブロックに対して双方向予測を実行して、デコードすべきブロックの第3のデコーディング予測ブロックを取得する。
順方向予測が、デコードすべきブロックの第3の順方向デコーディング予測ブロックを取得するために、対象順方向予測動きベクトルに基づいてデコードすべきブロックに対して実行され、次いで、逆方向予測が、デコードすべきブロックの第3の逆方向デコーディング予測ブロックを取得するために、対象逆方向予測動きベクトルに基づいてデコードすべきブロックに対して実行される。
6.第3のデコーディング予測ブロックに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードする。
重み付き総和が、デコードすべきブロックの対象デコーディング予測ブロックを取得するために、第3の順方向デコーディング予測ブロック及び第3の逆方向デコーディング予測ブロックに対して実行されてもよく、あるいは、第3の順方向デコーディング予測ブロックが、デコードすべきブロックの対象デコーディング予測ブロックとして使用されてもよく、あるいは、第3の逆方向デコーディング予測ブロックが、デコードすべきブロックの対象デコーディング予測ブロックとして使用されてもよい。
しかしながら、DMVR技術の計算複雑性は比較的高い。本出願は、ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法を提供する。以下では、具体的な実施形態を使用することにより詳細な説明を提供する。
図1は、本出願によるビデオシーケンスのためのピクチャデコーディング方法の実施形態1のフローチャートである。図1に示すように、この実施形態における方法は、以下のステップを含み得る。
ステップ101:デコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。
上述したように、既存のDMVR技術におけるインター予測ピクチャデコーディング方法のステップ1で取得される予測動きベクトルは座標情報であり、座標情報は、非ピクセル点(2つのピクセル間に位置する)をおそらく示す。この場合、非ピクセル点は、2つの近隣ピクセルに基づく補間によってのみ取得することができる。
本出願において、予測動きベクトルは、直接、上方又は下方に丸められ(rounded up or down)、それにより、丸めた後に取得される予測動きベクトルは、ピクセルの位置に対応する。このようにして、補間計算が省略され、計算量及び複雑性が低減される。
ステップ102:動き情報に基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得する。
本出願におけるステップ102の原理は、DMVR技術における前述のインター予測ピクチャデコーディング方法におけるステップ2の原理と同様であり、詳細はここで再度説明されない。
ステップ103:予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得し、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定される。
上述したように、既存のDMVR技術におけるインター予測ピクチャデコーディング方法のステップ3では、動き探索は、少なくとも9つの第2のデコーディング予測ブロックを取得するために、予測参照ピクチャブロック内のベースブロックの周りで第1の精度で実行される。9つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、右ブロック、左上ブロック、右上ブロック、右下ブロック、及び左下ブロックを含む。ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、左上ブロックは、第5の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、右上ブロックは、第6の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、右下ブロックは、第7の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、左下ブロックは、第8の予測ベクトルに基づいて予測参照ピクチャブロック内で取得される。第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得される。第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得される。第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得される。第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得される。第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得される。第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得される。第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得される。第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得される。対象オフセットは、第1の精度に基づいて決定される。
本出願におけるステップ103は、以下の実装方法を使用して実施されてもよい。
第1の方法は、少なくとも2つの第2のデコーディング予測ブロックがベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含むという仮定に基づく。下ブロックは、上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから除外される。あるいは、上ブロックは、下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから除外される。
右ブロックは、左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから除外される。あるいは、左ブロックは、右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから除外される。
すなわち、上ブロック及び下ブロックのうち1つが選択され、左ブロック及び右ブロックのうち1つが選択される。ブロックに対応する差がベースブロックに対応する差より小さい場合、反対方向のブロックは取得される必要がない。このようにして、3つの位置における第2のデコーディング予測ブロックのみが取得される必要がある。このステップにおける差は、第2のデコーディング予測ブロックと第1のデコーディング予測ブロックとの間の差を参照する。上ブロック及び下ブロックのうち1つに対応する差と、左ブロック及び右ブロックのうち1つに対応する差が、ベースブロックに対応する差より小さいことがひとたび見出されると、それは、その2つのブロックがベースブロックよりもデコードすべきブロックにより近いことを示す。したがって、反対のオフセット方向のブロックは、もはや取得される必要がなくてもよい。
さらに、下ブロック及び右ブロックが除外されているとき、予測参照ピクチャブロック内で左上ブロックが取得される。左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。下ブロック及び左ブロックが除外されているとき、予測参照ピクチャブロック内で右上ブロックが取得される。右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。上ブロック及び左ブロックが除外されているとき、予測参照ピクチャブロック内で右下ブロックが取得される。右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。上ブロック及び右ブロックが除外されているとき、予測参照ピクチャブロック内で左下ブロックが取得される。左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。
すなわち、前述2つの位置における第2のデコーディング予測ブロックに基づき、左上ブロック、右上ブロック、右下ブロック、及び左下ブロックのうち1つがさらに取得されてもよい。この場合、合計で、4つの位置における第2のデコーディング予測ブロックのみが取得される必要がある。
第2の方法は、少なくとも2つの第2のデコーディング予測ブロックが上ブロック、下ブロック、左ブロック、及び右ブロックを含むという仮定に基づく。上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で左上ブロックが取得される。左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。あるいは、上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で右上ブロックが取得される。右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で右下ブロックが取得される。右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で左下ブロックが取得される。左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つである。
すなわち、4つの位置における第2のデコーディング予測ブロックが最初取得され、次いで、4つの第2のデコーディング予測ブロックに基づいて、左上ブロック、右上ブロック、右下ブロック、及び左下ブロックのうち1つが取得される。この場合、合計で、5つの位置における第2のデコーディング予測ブロックのみが取得される必要がある。
本出願における双方の2つの方法は、ベースブロックに対応する差と、ベースブロックの周囲のブロックに対応する差に基づく。2つの反対方向において、一方の方向におけるブロックに対応する差が他方の方向におけるブロックに対応する差より小さいこと、又は、一方の方向におけるブロックに対応する差がベースブロックに対応する差より小さいことがひとたび見出されると、他方の方向、又はさらには角の方向における第2のデコーディング予測ブロックは、取得される必要がなくなり得る。このようにして、取得される第2のデコーディング予測ブロックの数量は、従来技術における9つの第2のデコーディング予測ブロックより確実に少ない。さらに、第2のデコーディング予測ブロックの数量の減少は、後続のピクセルサンプリング及び差計算の計算量が低減され、複雑性が低減されることを意味する。
実現可能な一実装において、前述の第2の方法に基づき、上方向、下方向、左方向、右方向、及び斜め方向において合計で5つの第2のデコーディング予測ブロックに対応する差がベースブロックに対応する差と比較されることが設定される。最小差に対応する第2のデコーディング予測ブロックが候補予測ブロックとして選択され、候補予測ブロックの上、下、左、及び右方向並びに4つの斜め方向における合計8つの新しい第2のデコーディング予測ブロックが選択される。8つの新しい第2のデコーディング予測ブロックのうちいくつかは、元の第2のデコーディング予測ブロック及びベースブロックであり、これらの第2のデコーディング予測ブロックについて差計算が実行されているため(図9に示すように、右方向の新しい第2のデコーディング予測ブロックと下方向の新しい第2のデコーディング予測ブロックは、元の第2のデコーディング予測ブロックであり、右下斜め方向の新しい第2のデコーディング予測ブロックは、元のベースブロックである)、差計算は、差計算を受けて(undergone)いない新しい第2のデコーディング予測ブロックに対してのみ実行され、これらの新しい第2のデコーディング予測ブロックに対応する差のみが、候補予測ブロックに対応する差と比較される。
実現可能な一実装において、上、下、左、及び右方向の4つの第2のデコーディング予測ブロックに対応する差がベースブロックに対応する差と比較され、全てベースブロックに対応する差以上であるとき、ベースブロックが予測ブロックとして選択され、ベースブロックに対応する動きベクトルが対象動きベクトルとして使用される。
さらに、上述したように、既存のDMVR技術において、インター予測ピクチャデコーディング方法のステップ3で少なくとも1つの第2のデコーディング予測ブロックが取得された後、ベースブロックに対応する予測動きベクトルがピクセルを表す場合であっても、動き探索精度が整数ピクセルでない、例えば、1/2ピクセル精度、1/4ピクセル精度、又は1/8ピクセル精度である場合、シフトした後の第2のデコーディング予測ブロックに対応する予測動きベクトルは、非ピクセル点を示す可能性がある。
本出願において、少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルは、ピクセルの位置に対応するように、上方又は下方に丸められる。このようにして、補間計算が省略され、計算量及び複雑性が低減される。
ステップ104:第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し、少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得する。
上述したように、既存のDMVR技術におけるインター予測ピクチャデコーディング方法のステップ4では、第1のデコーディング予測ブロック内の全てのピクセルと各第2のデコーディング予測ブロック内の全てのピクセルとの間のピクセル差の絶対値の和が、2つのピクチャブロック間の差として使用され、あるいは、第1のデコーディング予測ブロック内の全てのピクセルと各第2のデコーディング予測ブロック内の全てのピクセルとの間のピクセル差の二乗和が、2つのピクチャブロック間の差として使用され得る。この場合、必要な計算量はかなり大きい。
ピクチャに含まれる画像の関連のため、ピクチャ内の2つの隣接するピクセルのピクセル値は大きく異ならず、特に、ピクセル値の突然の変化はまれに生じる。したがって、本出願では、ピクチャブロック内の全てのピクセルがサンプリングされ、すなわち、全てのピクセルからいくつかのピクセルのみが選択され、例えば、1つおきの(every other)行内のピクセルが取得され、あるいは1つおきの列内のピクセルが取得され、あるいは1つおきの行及び1つおきの列内のピクセルが取得される。これは具体的に限定されない。第1のデコーディング予測ブロックと各第2のデコーディング予測ブロックについて、同じサンプリングルールが使用されることが要求されるだけである。このようにして、計算されるべきピクセルの数量が低減され、対応する計算量が大きく低減される。
ステップ105:第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、デコードすべきブロックの対象予測動きベクトルとして、デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用する。
第1のデコーディング予測ブロック及び各第2のデコーディング予測ブロック内のピクセルがサンプリングされるため、2つのピクチャブロック間の差を計算するために、第1のサンプリングピクセルアレイと各第2のサンプリングピクセルアレイとにおける対応する位置におけるピクセルのピクセル差の絶対値の和が計算されてもよく、ピクセル差の絶対値の和は、第1のデコーディング予測ブロックと各第2のデコーディング予測ブロックとの間の差として使用され、あるいは、第1のサンプリングピクセルアレイと各第2のサンプリングピクセルアレイとにおける対応する位置におけるピクセルのピクセル差の二乗和が計算されてもよく、ピクセル差の二乗和は、第1のデコーディング予測ブロックと各第2のデコーディング予測ブロックとの間の差として使用される。すなわち、2つのピクチャブロック内の全てのピクセルについての計算が、2つのピクチャブロック内の一部のピクセルについての計算に変更され、計算量が大幅に低減される。
ステップ106:対象予測動きベクトルに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードする。
上述したように、既存のDMVR技術におけるインター予測ピクチャデコーディング方法のステップ5とステップ6では、動き探索は、2つの主要な方向、すなわち順方向の方向と逆方向の方向で実行され、2つの対象予測動きベクトルが、順方向の方向及び逆方向の方向においてそれぞれ取得される。同じ計算プロセスが2回実行される必要があり、計算量は確実に大きい。
本出願では、順方向動き探索が完了した後、順方向動き探索を通じて取得された順方向対象予測動きベクトルに基づいて、対称的な逆方向対象予測動きベクトルが取得され得、すなわち、逆方向対象デコーディング予測ブロックは、順方向対象予測動きベクトルと同じ値を使用することにより逆方向の方向で取得される。このようにして、既存の対象予測動きベクトルが逆方向の方向で直接使用され、それにより、大量の繰り返し計算が必要とされず、計算量が低減される。
本出願では、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のデコーディング予測ブロックの数量が低減され、ピクチャブロック内のピクセルがサンプリングされ、それにより、差比較の計算量が低減され、ピクチャデコーディング効率が改善される。
図2は、本出願によるビデオシーケンスのためのピクチャデコーディング方法の実施形態2のフローチャートである。図2に示すように、この実施形態における方法は、以下のステップを含み得る。
ステップ201:デコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。
本出願におけるステップ201の原理はステップ101の原理と同様であり、詳細はここで再度説明されない。
ステップ202:予測参照ピクチャブロック内のベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを取得する。
ステップ203:上ブロック、下ブロック、左ブロック、及び右ブロックにそれぞれ対応する差が全てベースブロックに対応する差より大きいとき、ベースブロックのみ保持する。
ステップ204:デコードすべきブロックの対象予測動きベクトルとして、ベースブロックとデコードすべきブロックとの間の動きベクトルを使用する。
本出願は、少なくとも2つの第2のデコーディング予測ブロックがベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含むという仮定に基づく。ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックが最初取得され、次いで、他のブロックに対応する差がベースブロックに対応する差と比較される。上ブロック、下ブロック、左ブロック、及び右ブロックにそれぞれ対応する差が全て、ベースブロックに対応する差より大きいとき、ベースブロックのみが保持される。すなわち、デコードすべきブロックに最終的に使用される対象予測動きベクトルは、5つの位置における第2のデコーディング予測ブロックのみ取得することにより直接決定することができる。上ブロック、下ブロック、左ブロック、及び右ブロックにそれぞれ対応する差が全て、ベースブロックに対応する差より大きいことがひとたび見出されると、それは、オフセット位置における第2のデコーディング予測ブロックのいずれも、ベースブロックよりデコードすべきブロックに近くないことを示す。したがって、ベースブロックとデコードすべきブロックとの間の動きベクトルは、デコードすべきブロックの対象予測動きベクトルとして直接使用される。
ステップ205:対象予測動きベクトルに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードする。
本出願におけるステップ205の原理はステップ106の原理と同様であり、詳細はここで再度説明されない。
本出願では、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のデコーディング予測ブロックの数量は低減され、それにより、差比較の計算量が低減され、ピクチャデコーディング効率が改善される。
図3は、本出願によるビデオシーケンスのためのピクチャエンコーディング方法の実施形態1のフローチャートである。図3に示すように、この実施形態の方法は、以下のステップを含み得る。
ステップ301:エンコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。
上述したように、既存のDMVR技術におけるインター予測ピクチャエンコーディング方法のステップ1で取得される予測動きベクトルは座標情報であり、座標情報は、非ピクセル点(2つのピクセル間に位置する)をおそらく示す。この場合、非ピクセル点は、2つの近隣ピクセルに基づく補間によってのみ取得することができる。
本出願において、予測動きベクトルは、直接、ピクセルの位置に対応するように上方又は下方に丸められる。このようにして、補間計算が省略され、計算量及び複雑性が低減される。
ステップ302:動き情報に基づいてエンコードすべきブロックの第1のエンコーディング予測ブロックを取得する。
本出願におけるステップ302の原理は、DMVR技術における前述のインター予測ピクチャエンコーディング方法におけるステップ2の原理と同様であり、詳細はここで再度説明されない。
ステップ303:予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得し、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定される。
上述したように、既存のDMVR技術におけるインター予測ピクチャエンコーディング方法のステップ3では、動き探索は、少なくとも9つの第2のエンコーディング予測ブロックを取得するために、予測参照ピクチャブロック内のベースブロックの周りで第1の精度で実行される。9つの第2のエンコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、右ブロック、左上ブロック、右上ブロック、右下ブロック、及び左下ブロックを含む。ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、左上ブロックは、第5の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、右上ブロックは、第6の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、右下ブロックは、第7の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、左下ブロックは、第8の予測ベクトルに基づいて予測参照ピクチャブロック内で取得される。第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得される。第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得される。第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得される。第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得される。第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得される。第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得される。第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得される。第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得される。対象オフセットは、第1の精度に基づいて決定される。
本出願におけるステップ303は、以下の実装方法を使用して実施されてもよい。
第1の方法は、少なくとも2つの第2のエンコーディング予測ブロックがベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含むという仮定に基づく。下ブロックは、上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから除外される。あるいは、上ブロックは、下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから除外される。
右ブロックは、左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから除外される。あるいは、左ブロックは、右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから除外される。
すなわち、上ブロック及び下ブロックのうち1つが選択され、左ブロック及び右ブロックのうち1つが選択される。ブロックに対応する差がベースブロックに対応する差より小さい場合、反対方向のブロックは取得される必要がない。このようにして、3つの位置における第2のエンコーディング予測ブロックのみが取得される必要がある。このステップにおける差は、第2のエンコーディング予測ブロックと第1のエンコーディング予測ブロックとの間の差を参照する。上ブロック及び下ブロックのうち1つに対応する差と、左ブロック及び右ブロックのうち1つに対応する差が、ベースブロックに対応する差より小さいことがひとたび見出されると、それは、その2つのブロックがベースブロックよりもエンコードすべきブロックにより近いことを示す。したがって、反対のオフセット方向のブロックは、もはや取得される必要がなくてもよい。
さらに、下ブロック及び右ブロックが除外されているとき、予測参照ピクチャブロック内で左上ブロックが取得される。左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。下ブロック及び左ブロックが除外されているとき、予測参照ピクチャブロック内で右上ブロックが取得される。右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。上ブロック及び左ブロックが除外されているとき、予測参照ピクチャブロック内で右下ブロックが取得される。右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。上ブロック及び右ブロックが除外されているとき、予測参照ピクチャブロック内で左下ブロックが取得される。左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。
すなわち、前述2つの位置における第2のエンコーディング予測ブロックに基づき、左上ブロック、右上ブロック、右下ブロック、及び左下ブロックのうち1つがさらに取得されてもよい。この場合、合計で、4つの位置における第2のエンコーディング予測ブロックのみが取得される必要がある。
第2の方法は、少なくとも2つの第2のエンコーディング予測ブロックが上ブロック、下ブロック、左ブロック、及び右ブロックを含むという仮定に基づく。上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で左上ブロックが取得される。左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。あるいは、上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で右上ブロックが取得される。右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で右下ブロックが取得される。右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、予測参照ピクチャブロック内で左下ブロックが取得される。左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つである。
すなわち、4つの位置における第2のエンコーディング予測ブロックが最初取得され、次いで、4つの第2のエンコーディング予測ブロックに基づいて、左上ブロック、右上ブロック、右下ブロック、及び左下ブロックのうち1つが取得される。この場合、合計で、5つの位置における第2のエンコーディング予測ブロックのみが取得される必要がある。
本出願における双方の2つの方法は、ベースブロックに対応する差と、ベースブロックの周囲のブロックに対応する差に基づく。2つの反対方向において、一方の方向におけるブロックに対応する差が他方の方向におけるブロックに対応する差より小さいこと、又は、一方の方向におけるブロックに対応する差がベースブロックに対応する差より小さいことがひとたび見出されると、他方の方向、又はさらには角の方向における第2のエンコーディング予測ブロックは、取得される必要がなくなり得る。このようにして、取得される第2のエンコーディング予測ブロックの数量は、従来技術における9つの第2のエンコーディング予測ブロックより確実に少ない。さらに、第2のエンコーディング予測ブロックの数量の減少は、後続のピクセルサンプリング及び差計算の計算量が低減され、複雑性が低減されることを意味する。
実現可能な一実装において、前述の第2の方法に基づき、上方向、下方向、左方向、右方向、及び斜め方向において合計で5つの第2のエンコーディング予測ブロックに対応する差がベースブロックに対応する差と比較されることが設定される。最小差に対応する第2のエンコーディング予測ブロックが候補予測ブロックとして選択され、候補予測ブロックの上、下、左、及び右方向並びに4つの斜め方向における合計8つの新しい第2のエンコーディング予測ブロックが選択される。8つの新しい第2のエンコーディング予測ブロックのうちいくつかは、元の第2のエンコーディング予測ブロック及びベースブロックであり、これらの第2のエンコーディング予測ブロックについて差計算が実行されているため(図9に示すように、右方向の新しい第2のエンコーディング予測ブロックと下方向の新しい第2のエンコーディング予測ブロックは、元の第2のエンコーディング予測ブロックであり、右下斜め方向の新しい第2のエンコーディング予測ブロックは、元のベースブロックである)、差計算は、差計算を受けていない新しい第2のエンコーディング予測ブロックに対してのみ実行され、これらの新しい第2のエンコーディング予測ブロックに対応する差のみが、候補予測ブロックに対応する差と比較される。
実現可能な一実装において、上、下、左、及び右方向の4つの第2のエンコーディング予測ブロックに対応する差がベースブロックに対応する差と比較され、全てベースブロックに対応する差以上であるとき、ベースブロックが予測ブロックとして選択され、ベースブロックに対応する動きベクトルが対象動きベクトルとして使用される。
さらに、上述したように、既存のDMVR技術において、インター予測ピクチャエンコーディング方法のステップ3で少なくとも1つの第2のエンコーディング予測ブロックが取得された後、ベースブロックに対応する予測動きベクトルがピクセルを表す場合であっても、動き探索精度が整数ピクセルでない、例えば、1/2ピクセル精度、1/4ピクセル精度、又は1/8ピクセル精度である場合、シフトした後の第2のエンコーディング予測ブロックに対応する予測動きベクトルは、非ピクセル点を示す可能性がある。
本出願において、少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルは、ピクセルの位置に対応するように、上方又は下方に丸められる。このようにして、補間計算が省略され、計算量及び複雑性が低減される。
ステップ304:第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し、少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得する。
上述したように、既存のDMVR技術におけるインター予測ピクチャエンコーディング方法のステップ4では、第1のエンコーディング予測ブロック内の全てのピクセルと各第2のエンコーディング予測ブロック内の全てのピクセルとの間のピクセル差の絶対値の和が、2つのピクチャブロック間の差として使用され、あるいは、第1のエンコーディング予測ブロック内の全てのピクセルと各第2のエンコーディング予測ブロック内の全てのピクセルとの間のピクセル差の二乗和が、2つのピクチャブロック間の差として使用され得る。この場合、必要な計算量はかなり大きい。
ピクチャに含まれる画像の関連のため、ピクチャ内の2つの隣接するピクセルのピクセル値は大きく異ならず、特に、ピクセル値の突然の変化はまれに生じる。したがって、本出願では、ピクチャブロック内の全てのピクセルがサンプリングされ、すなわち、全てのピクセルからいくつかのピクセルのみが選択され、例えば、1つおきの行内のピクセルが取得され、あるいは1つおきの列内のピクセルが取得され、あるいは1つおきの行及び1つおきの列内のピクセルが取得される。これは具体的に限定されない。第1のエンコーディング予測ブロックと各第2のエンコーディング予測ブロックについて、同じサンプリングルールが使用されることが要求されるだけである。このようにして、計算されるべきピクセルの数量が低減され、対応する計算量が大きく低減される。
ステップ305:第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、エンコードすべきブロックの対象予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用する。
第1のエンコーディング予測ブロック及び各第2のエンコーディング予測ブロック内のピクセルがサンプリングされるため、2つのピクチャブロック間の差を計算するために、第1のサンプリングピクセルアレイと各第2のサンプリングピクセルアレイとにおける対応する位置におけるピクセルのピクセル差の絶対値の和が計算されてもよく、ピクセル差の絶対値の和は、第1のエンコーディング予測ブロックと各第2のエンコーディング予測ブロックとの間の差として使用され、あるいは、第1のサンプリングピクセルアレイと各第2のサンプリングピクセルアレイとにおける対応する位置におけるピクセルのピクセル差の二乗和が計算されてもよく、ピクセル差の二乗和は、第1のエンコーディング予測ブロックと各第2のエンコーディング予測ブロックとの間の差として使用される。すなわち、2つのピクチャブロック内の全てのピクセルについての計算が、2つのピクチャブロック内の一部のピクセルについての計算に変更され、計算量が大幅に低減される。
ステップ306:対象予測動きベクトルに基づいてエンコードすべきブロックの対象エンコーディング予測ブロックを取得し、対象エンコーディング予測ブロックに基づいてエンコードすべきブロックをエンコードする。
上述したように、既存のDMVR技術におけるインター予測ピクチャエンコーディング方法のステップ5とステップ6では、動き探索は、2つの主要な方向、すなわち順方向の方向と逆方向の方向で実行され、2つの対象予測動きベクトルが、順方向の方向及び逆方向の方向においてそれぞれ取得される。同じ計算プロセスが2回実行される必要があり、計算量は確実に大きい。
本出願では、順方向動き探索が完了した後、順方向動き探索を通じて取得された順方向対象予測動きベクトルに基づいて、対称的な逆方向対象予測動きベクトルが取得され得、すなわち、逆方向対象エンコーディング予測ブロックは、順方向対象予測動きベクトルと同じ値を使用することにより逆方向の方向で取得される。このようにして、既存の対象予測動きベクトルが逆方向の方向で直接使用され、それにより、大量の繰り返し計算が必要とされず、計算量が低減される。
本出願では、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のエンコーディング予測ブロックの数量が低減され、ピクチャブロック内のピクセルがサンプリングされ、それにより、差比較の計算量が低減され、ピクチャエンコーディング効率が改善される。
図4は、本出願によるビデオシーケンスのためのピクチャエンコーディング方法の実施形態2のフローチャートである。図4に示すように、この実施形態における方法は、以下のステップを含み得る。
ステップ401:エンコードすべきブロックの動き情報を決定し、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。
本出願におけるステップ401の原理はステップ301の原理と同様であり、詳細はここで再度説明されない。
ステップ402:予測参照ピクチャブロック内のベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを取得する。
ステップ403:上ブロック、下ブロック、左ブロック、及び右ブロックにそれぞれ対応する差が全てベースブロックに対応する差より大きいとき、ベースブロックのみ保持する。
ステップ404:エンコードすべきブロックの対象予測動きベクトルとして、ベースブロックとエンコードすべきブロックとの間の動きベクトルを使用する。
本出願は、少なくとも2つの第2のエンコーディング予測ブロックがベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含むという仮定に基づく。ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックが最初取得され、次いで、他のブロックに対応する差がベースブロックに対応する差と比較される。上ブロック、下ブロック、左ブロック、及び右ブロックにそれぞれ対応する差が全て、ベースブロックに対応する差より大きいとき、ベースブロックのみが保持される。すなわち、エンコードすべきブロックに最終的に使用される対象予測動きベクトルは、5つの位置における第2のエンコーディング予測ブロックのみ取得することにより直接決定することができる。上ブロック、下ブロック、左ブロック、及び右ブロックにそれぞれ対応する差が全て、ベースブロックに対応する差より大きいことがひとたび見出されると、それは、オフセット位置における第2のエンコーディング予測ブロックのいずれも、ベースブロックよりエンコードすべきブロックに近くないことを示す。したがって、ベースブロックとエンコードすべきブロックとの間の動きベクトルは、エンコードすべきブロックの対象予測動きベクトルとして直接使用される。
ステップ405:対象予測動きベクトルに基づいてエンコードすべきブロックの対象エンコーディング予測ブロックを取得し、対象エンコーディング予測ブロックに基づいてエンコードすべきブロックをエンコードする。
本出願におけるステップ405の原理はステップ306の原理と同様であり、詳細はここで再度説明されない。
本出願では、予測参照ピクチャブロックに対して動き探索を実行することにより取得される第2のエンコーディング予測ブロックの数量は低減され、それにより、差比較の計算量が低減され、ピクチャエンコーディング効率が改善される。
図5は、本出願によるビデオシーケンスのためのピクチャデコーディング装置の一実施形態の概略構造図である。図5に示すように、この実施形態における装置は、決定モジュール11、処理モジュール12、及びデコーディングモジュール13を含み得る。決定モジュール11は、デコードすべきブロックの動き情報を決定するように構成され、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。処理モジュール12は、動き情報に基づいてデコードすべきブロックの第1のデコーディング予測ブロックを取得し、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することであって、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定され、第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し、少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、デコードすべきブロックの対象予測動きベクトルとして、デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用するように構成される。デコーディングモジュール13は、対象予測動きベクトルに基づいてデコードすべきブロックの対象デコーディング予測ブロックを取得し、対象デコーディング予測ブロックに基づいてデコードすべきブロックをデコードするように構成される。
前述の技術的解決策に基づき、処理モジュール12は、具体的に、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用し、あるいは、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用するように構成される。
前述の技術的解決策に基づき、少なくとも2つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、処理モジュール12は、具体的に、上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから下ブロックを除外することであって、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定され、あるいは、下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから上ブロックを除外し、あるいは、左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから右ブロックを除外することであって、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、あるいは、右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のデコーディング予測ブロックから左ブロックを除外するように構成される。
前述の技術的解決策に基づき、処理モジュール12は、さらに、下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであって、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであって、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであって、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、あるいは、上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであって、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される。
前述の技術的解決策に基づき、少なくとも2つの第2のデコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含む。処理モジュール12は、具体的に、上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであって、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定され、あるいは、上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであって、第6の予測ベクトルにより示される位置は、予測動きベクトルに示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいときは、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであって、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであって、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される。
前述の技術的解決策に基づき、処理モジュール12は、さらに、動きベクトルを上方又は下方に丸めるように構成される。
前述の技術的解決策に基づき、処理モジュール12は、さらに、少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるように構成される。
この実施形態における装置は、図1又は図2に示す方法の実施形態における技術的解決策を実行するように構成され得る。実装の原理及びその技術的効果は同様である。詳細はここで再度説明されない。
図6は、本出願によるビデオシーケンスのためのピクチャエンコーディング装置の一実施形態の概略構造図である。図6に示すように、この実施形態における装置は、決定モジュール21、処理モジュール22、及びエンコーディングモジュール23を含み得る。決定モジュール21は、エンコードすべきブロックの動き情報を決定するように構成され、動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される。処理モジュール22は、動き情報に基づいてエンコードすべきブロックの第1のエンコーディング予測ブロックを取得し、予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得することであって、動き探索の探索位置は、予測動きベクトル及び第1の精度に基づいて決定され、第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し、少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々との間の差を計算し、エンコードすべきブロックの対象予測動きベクトルとして、エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用するように構成される。エンコーディングモジュール23は、対象予測動きベクトルに基づいてエンコードすべきブロックの対象エンコーディング予測ブロックを取得し、対象エンコーディング予測ブロックに基づいてエンコードすべきブロックをエンコードするように構成される。
前述の技術的解決策に基づき、処理モジュール22は、具体的に、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、差としてピクセル差の絶対値の和を使用し、あるいは、第1のサンプリングピクセルアレイと第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、差としてピクセル差の二乗和を使用するように構成される。
前述の技術的解決策に基づき、少なくとも2つの第2のエンコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、処理モジュール22は、具体的に、上ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから下ブロックを除外することであって、ベースブロックは、予測動きベクトルに基づいて予測参照ピクチャブロック内で取得され、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定され、あるいは、下ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから上ブロックを除外し、あるいは、左ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから右ブロックを除外することであって、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、あるいは、右ブロックに対応する差がベースブロックに対応する差より小さいとき、少なくとも2つの第2のエンコーディング予測ブロックから左ブロックを除外するように構成される。
前述の技術的解決策に基づき、処理モジュール22は、さらに、下ブロック及び右ブロックが除外されているとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであって、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、下ブロック及び左ブロックが除外されているとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであって、第6の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、上ブロック及び左ブロックが除外されているとき、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであって、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、あるいは、上ブロック及び右ブロックが除外されているとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであって、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであるように構成される。
前述の技術的解決策に基づき、少なくとも2つの第2のエンコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含む。処理モジュール22は、具体的に、上ブロックに対応する差が下ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて予測参照ピクチャブロック内の左上ブロックを取得することであって、第5の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ上にシフトすることにより取得され、左上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、上ブロックは、第1の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第1の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、下ブロックは、第2の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第2の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ下にシフトすることにより取得され、左ブロックは、第3の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第3の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、右ブロックは、第4の予測ベクトルに基づいて予測参照ピクチャブロック内で取得され、第4の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右にシフトすることにより取得され、対象オフセットは、第1の精度に基づいて決定され、あるいは、上ブロックに対応する差が下ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて予測参照ピクチャブロック内の右上ブロックを取得することであって、第6の予測ベクトルにより示される位置は、予測動きベクトルに示される位置を対象オフセットだけ右に、及び対象オフセットだけ上にシフトすることにより取得され、右上ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、右ブロックに対応する差が左ブロックに対応する差より小さいときは、第7の予測ベクトルに基づいて予測参照ピクチャブロック内の右下ブロックを取得することであって、第7の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ右に、及び対象オフセットだけ下にシフトすることにより取得され、右下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであり、あるいは、下ブロックに対応する差が上ブロックに対応する差より小さく、左ブロックに対応する差が右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて予測参照ピクチャブロック内の左下ブロックを取得することであって、第8の予測ベクトルにより示される位置は、予測動きベクトルにより示される位置を対象オフセットだけ左に、及び対象オフセットだけ下にシフトすることにより取得され、左下ブロックは、少なくとも2つの第2のエンコーディング予測ブロックのうちの1つであるように構成される。
前述の技術的解決策に基づき、処理モジュール22は、さらに、動きベクトルを上方又は下方に丸めるように構成される。
前述の技術的解決策に基づき、処理モジュール22は、さらに、少なくとも2つの第2のエンコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるように構成される。
この実施形態における装置は、図3又は図4に示す方法の実施形態における技術的解決策を実行するように構成され得る。実装の原理及びその技術的効果は同様である。詳細はここで再度説明されない。
図7は、本出願によるコーデックデバイスの一実施形態の概略構造図である。図8は、本出願によるコーデックシステムの一実施形態の概略構造図である。以下では、図7及び図8のユニットについて説明する。
コーデックデバイス30は、例えば、無線通信システムにおけるモバイル端末又はユーザ装置(user equipment)でもよい。本出願の実施形態は、ビデオピクチャをエンコード及びデコードし、又はエンコードし、又はデコードする必要があり得る任意の電子デバイス又は装置において実施され得ることを理解されたい。
コーデックデバイス30は、デバイスを収容及び保護するハウジングを含み得る。コーデックデバイス30は、液晶ディスプレイの形態のディスプレイ31をさらに含み得る。本出願の別の実施形態において、ディスプレイ31は、ピクチャ又はビデオを表示するのに適した任意の適切なディスプレイ技術を使用してもよい。コーデックデバイス30は、キーパッド32をさらに含み得る。本出願の別の実施形態において、任意の適切なデータ又はユーザインターフェースメカニズムが使用されてもよい。例えば、ユーザインターフェースが仮想キーボードとして実装されてもよく、あるいは、データ記録システムがタッチ感知式ディスプレイの一部として実装されてもよい。コーデックデバイス30は、マイクロホン33又は任意の適切なオーディオ入力をさらに含んでもよく、オーディオ入力は、デジタル又はアナログ信号入力でもよい。コーデックデバイス30は、以下のオーディオ出力デバイスをさらに含んでもよく、本出願のこの実施形態において、オーディオ出力デバイスは、イヤホン34、ラウドスピーカ、アナログオーディオ出力接続、又はデジタルオーディオ出力接続のうちいずれか1つでもよい。コーデックデバイス30は、バッテリをさらに含んでもよい。本出願の別の実施形態において、コーデックデバイス30は、太陽電池、燃料電池、又はクロックメカニズム生成器などの任意の適切なモバイルエネルギーデバイスにより電力供給されてもよい。コーデックデバイス30は、別のデバイスとの短距離の見通し線通信に使用される赤外線ポート35をさらに含んでもよい。他の実施形態において、コーデックデバイス30は、Bluetooth無線接続又はUSB/ライブライン(live line)有線接続などの任意の適切な短距離通信ソリューションをさらに含んでもよい。
コーデックデバイス30は、コントローラ36、又はコーデックデバイス30を制御するように構成されたコントローラを含み得る。コントローラ36は、メモリ37に接続され得る。本出願のこの実施形態において、メモリ37は、画像の形式のデータ及びオーディオの形式のデータを記憶してもよく、かつ/あるいはコントローラ36により実施される命令を記憶してもよい。コントローラ36は、オーディオ及び/又はビデオデータのエンコーディング及びデコーディングを実施することに、又はコントローラ36により実施される支援されたエンコーディング及びデコーディングに適したコーデック38にさらに接続されてもよい。
コーデックデバイス30は、ユーザ情報を提供するように構成され、かつネットワーク認証及び認可ユーザ認証のために使用される情報を提供するのに適した、カードリーダ39及びスマートカード40をさらに含んでもよい。
コーデックデバイス30は、無線インターフェース41をさらに含み得る。無線インターフェース41は、コントローラに接続され、例えば、セルラー通信ネットワーク、無線通信システム、又は無線ローカルエリアネットワークとの通信に使用される無線通信信号を生成するのに適する。コーデックデバイス30は、アンテナ42をさらに含んでもよい。アンテナは、無線インターフェース41に接続され、他の装置(又は、複数の装置)に無線インターフェース41内で生成された無線周波数信号を送信し、他の装置(又は、複数の装置)から無線周波数信号を受信するように構成される。
本出願のいくつかの実施形態において、コーデックデバイス30は、単一フレームを記録又は検出することができるカメラを含み、コーデック38又はコントローラは、これらの単一フレームを受信し、処理する。本出願のいくつかの実施形態において、装置は、送信及び/又は記憶の前に別のデバイスから処理すべきビデオピクチャデータを受信してもよい。本出願のいくつかの実施形態において、コーデックデバイス30は、無線又は有線接続を通じて、エンコード/デコードされるべきピクチャを受信してもよい。
コーデックシステム50は、ピクチャエンコーディング装置51及びピクチャデコーディング装置52を含む。ピクチャエンコーディング装置51は、エンコードされたビデオデータを生成する。したがって、ピクチャエンコーディング装置51は、エンコーディングデバイスと呼ばれることがある。ピクチャデコーディング装置52は、ピクチャエンコーディング装置51により生成されたエンコードされたビデオデータをデコードすることができる。したがって、ピクチャデコーディング装置52は、デコーディングデバイスと呼ばれることがある。ピクチャエンコーディング装置51及びピクチャデコーディング装置52は、コーデックデバイスの例であり得る。ピクチャエンコーディング装置51及びピクチャデコーディング装置52は、デスクトップコンピュータ、モバイルコンピューティング装置、ノートブック(例えば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、スマートフォンなどのハンドヘルドフォン、テレビジョン、カメラ、ディスプレイ装置、デジタルメディアプレーヤ、ビデオゲームコンソール、車載コンピュータ、又は他の同様の装置を含む広範囲の装置を含んでもよい。
ピクチャデコーディング装置52は、チャネル53を通じてピクチャエンコーディング装置51からエンコードされたビデオデータを受信することができる。チャネル53は、エンコードされたビデオデータをピクチャエンコーディング装置51からピクチャデコーディング装置52に移動させることができる1つ以上の媒体及び/又は装置を含んでもよい。一例において、チャネル53は、ピクチャエンコーディング装置51がエンコードされたビデオデータをピクチャデコーディング装置52にリアルタイムで直接送信することを可能にすることができる1つ以上の通信媒体を含んでもよい。この例では、ピクチャエンコーディング装置51は、エンコードされたビデオデータを通信標準(例えば、無線通信プロトコル)に従って変調してもよく、変調されたビデオデータをピクチャデコーディング装置52に送信してもよい。1つ以上の通信媒体は、無線及び/又は有線通信媒体、例えば、無線周波数(RF)スペクトル又は1つ以上の物理的伝送線路を含んでもよい。1つ以上の通信媒体は、パケットベースのネットワーク(例えば、ローカルエリアネットワーク、ワイドエリアネットワーク、又はグローバルネットワーク(例えば、インターネット))の一部を構成してもよい。1つ以上の通信媒体は、ピクチャエンコーディング装置51からピクチャデコーディング装置52への通信を容易にするルータ、スイッチ、基地局、又は他のデバイスを含んでもよい。
別の例において、チャネル53は、ピクチャエンコーディング装置51により生成されたエンコードされたビデオデータを記憶する記憶媒体を含んでもよい。この例では、ピクチャデコーディング装置52は、ディスクアクセス又はカードアクセスを通じて記憶媒体にアクセスし得る。記憶媒体は、ブルーレイ、DVD、CD-ROM、フラッシュメモリ、又はエンコードされたビデオデータを記憶するように構成された他の適切なデジタル記憶媒体などの複数のローカルにアクセス可能なデータ記憶媒体を含んでもよい。
別の例において、チャネル53は、ピクチャエンコーディング装置51により生成されたエンコードされたビデオデータを記憶するファイルサーバ又は他の中間記憶装置を含んでもよい。この例では、ピクチャデコーディング装置52は、ストリーミング伝送又はダウンロードを通じて、ファイルサーバ又は他の中間記憶装置に記憶されたエンコードされたビデオデータにアクセスし得る。ファイルサーバは、エンコードされたビデオデータを記憶し、かつエンコードされたビデオデータをピクチャデコーディング装置52に送信することができるサーバタイプのものであり得る。例えば、ファイルサーバは、ウェブサーバ(例えば、ウェブサイトに使用される)、ファイル転送プロトコル(FTP)サーバ、ネットワーク接続ストレージ(NAS)装置、及びローカルディスクドライブを含む。
ピクチャデコーディング装置52は、標準データ接続(例えば、インターネット接続)を通じて、エンコードされたビデオデータにアクセスすることができる。データ接続の例示的なタイプは、ファイルサーバに記憶されたエンコードされたビデオデータにアクセスするのに適した無線チャネル(例えば、Wi-Fi接続)、有線接続(例えば、DSL又はケーブルモデム)、又はこれらの組み合わせを含む。ファイルサーバからのエンコードされたビデオデータの送信は、ストリーミング伝送、ダウンロード伝送、又はこれらの組み合わせでもよい。
本出願の技術は、無線アプリケーションシナリオに限定されない。例えば、この技術は、以下のアプリケーション、すなわち、無線(over-the-air)テレビジョン放送、ケーブルテレビジョン伝送、衛星テレビジョン伝送、ストリーミング伝送ビデオ送信(例えば、インターネットを通じて)、データ記憶媒体に記憶されたビデオデータのエンコーディング、データ記憶媒体に記憶されたビデオデータのデコーディング、又は他のアプリケーションをサポートする複数のマルチメディアアプリケーションにおけるビデオエンコーディング及びデコーディングに適用されてもよい。いくつかの例において、コーデックシステム50は、ストリーミングビデオ伝送、ビデオ再生、ビデオ放送、及び/又はビデオ電話などのアプリケーションをサポートするために、単方向又は双方向ビデオ伝送をサポートするように構成されてもよい。
図8の例において、ピクチャエンコーディング装置51は、ビデオソース54、ビデオエンコーダ55、及び出力インターフェース56を含む。いくつかの例において、出力インターフェース56は、変調器/復調器(モデム)及び/又は送信器を含んでもよい。ビデオソース54は、ビデオ捕捉装置(例えば、ビデオカメラ)、予め捕捉されたビデオデータを含むビデオアーカイブ、ビデオコンテンツプロバイダからビデオデータを受信するように構成されたビデオ入力インターフェース、及び/又はビデオデータを生成するように構成されたコンピュータグラフィックスシステム、又は前述のビデオデータソースの組み合わせを含んでもよい。
ビデオエンコーダ55は、ビデオソース54からのビデオデータをエンコードすることができる。いくつかの例において、ピクチャエンコーディング装置51は、出力インターフェース56を通じて、エンコードされたビデオデータをピクチャデコーディング装置52に直接送信する。エンコードされたビデオデータは、記憶媒体又はファイルサーバにさらに記憶されてもよく、それにより、ピクチャデコーディング装置52は、後に、デコード及び/又は再生するために、エンコードされたビデオデータにアクセスする。
図8の例において、ピクチャデコーディング装置52は、入力インターフェース57、ビデオデコーダ58、及びディスプレイ装置59を含む。いくつかの例において、入力インターフェース57は、受信器及び/又はモデムを含む。入力インターフェース57は、チャネル53を通じて、エンコードされたビデオデータを受信することができる。ディスプレイ装置59は、ピクチャデコーディング装置52と統合されてもよく、あるいはピクチャデコーディング装置52の外側にあってもよい。通常、ディスプレイ装置59は、デコードされたビデオデータを表示する。ディスプレイ装置59は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、又は他のタイプのディスプレイ装置などの複数のタイプのディスプレイ装置を含んでもよい。
ビデオエンコーダ55及びビデオデコーダ58は、ビデオ圧縮標準(例えば、高効率ビデオ符号化H.265標準)に従って動作してもよく、HEVCテストモデル(HM)に従ってもよい。H.265標準のテキスト記述ITU-TH.265(V3)(04/2015)は、2015年4月29日にリリースされており、http://handle.itu.int/11.1002/1000/12455からダウンロード可能である。このファイルは、その全体を参照により組み込まれる。
あるいは、ビデオエンコーダ55及びビデオデコーダ59は、他の専有又は業界標準に従って動作を実行することができ、この標準は、ITU-T H.261、ISO/IECMPEG-1 Visual、ITU-T H.262又はISO/IECMPEG-2 Visual、ITU-T H.263、ISO/IECMPEG-4 Visual、ITU-T H.264(ISO/IECMPEG-4 AVCとも呼ばれる)を含み、スケーラブルビデオ符号化(scalable video coding、SVC)拡張及びマルチビュービデオ符号化(multi-view video coding、MVC)を含む。本出願の技術は、いかなる特定の符号化/復号標準又は技術にも限定されないことを理解されたい。
さらに、図8は単なる一例であり、本出願の技術は、エンコーディング装置とデコーディング装置との間の何らかのデータ通信を必ずしも含まないビデオエンコーディング/デコーディングアプリケーション(例えば、片側のビデオエンコーディング又は片側のビデオデコーディング)に適用されてもよい。別の例において、データはローカルメモリから取り出され、データはネットワークを使用することによりストリーミングを通じて伝送され、あるいは、データは同様の方法で操作される。エンコーディング装置は、データをエンコードし、そのデータをメモリに記憶することができ、かつ/あるいは、デコーディング装置は、メモリからデータを取り出し、そのデータを復号することができる。多くの例において、互いに通信せず、データをメモリへエンコードするのみである、及び/又はメモリからデータを取り出してそのデータをデコードするのみである複数の装置が、エンコーディング及びデコーディングを実行する。
ビデオエンコーダ55及びビデオデコーダ59は各々、1つ以上のマイクロコントローラユニット、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、個別の論理、ハードウェア、又はこれらの任意の組み合わせなどの複数の適切な回路のうち任意の1つとして実装されてもよい。技術がソフトウェアを使用することにより部分的又は完全に実施される場合、装置は、ソフトウェアの命令を適切な非一時的コンピュータ読取可能記憶媒体に記憶してもよく、1つ以上のプロセッサが、本出願の技術を実行するためにハードウェアで命令を実行するために使用されてもよい。前述のアイテムのうちいずれか1つ(ハードウェア、ソフトウェア、ハードウェアとソフトウェアの組み合わせなどを含む)は、1つ以上のコントローラとみなされてもよい。ビデオエンコーダ55及びビデオデコーダ59は各々、1つ以上のエンコーダ又はデコーダに含まれてもよく、各々、他の装置の組み合わせられたエンコーダ/デコーダ(コーデック(CODEC))の一部として統合されてもよい。
本出願は、一般に、特定の情報がビデオエンコーダ55により別の装置(例えば、ビデオデコーダ59)に「信号伝達される(signaled)」ことを示し得る。用語「信号伝達される」は、一般に、構文要素を示し、かつ/あるいはエンコードされたビデオデータの転送を表し得る。転送は、リアルタイムで、又はほぼリアルタイムで生じ得る。あるいは、通信は、時間スパンにわたり生じてもよく、例えば、シンタックス要素が、符号化の間、符号化の後に取得されるバイナリデータを使用することによりコンピュータ読取可能記憶媒体に記憶されるとき生じてもよい。デコーディング装置は、シンタックス要素が媒体に記憶された後にいつでも、シンタックス要素を取り出すことができる。
可能な一実装において、本出願は、コンピュータ読取可能記憶媒体を提供する。コンピュータ読取可能記憶媒体は命令を記憶し、命令がコンピュータ上で実行されたとき、コンピュータは、図1~図4に示す任意の実施形態における方法を実行するように構成される。
可能な一実装において、本出願は、コンピュータプログラムを提供する。コンピュータプログラムがコンピュータにより実行されたとき、コンピュータは、図1~図4に示す任意の実施形態における方法を実行するように構成される。
当業者は、前述の方法の実施形態におけるステップの全部又は一部が関連するハードウェアにプログラム命令することにより実施され得ることを理解し得る。プログラムは、コンピュータ読取可能記憶媒体に記憶されてもよい。プログラムが実行されたとき、前述の方法の実施形態におけるステップが実行される。前述の記憶媒体は、ROM、RAM、磁気ディスク、又は光ディスクなどのプログラムコードを記憶することができる任意の媒体を含む。
最後に、前述の実施形態は、本出願を限定するのでなく本出願の技術的解決策を説明することを意図したものに過ぎないことに留意されたい。本出願は、前述の実施形態を参照して詳細に説明されているが、当業者は、本出願の実施形態の技術的解決策の範囲から逸脱することなく、依然として前述の実施形態に記載された技術的解決策に修正を行い、又はその一部若しくは全ての技術的特徴に同等の置き換えを行い得ることを理解すべきである。

Claims (19)

  1. ビデオシーケンスのためのピクチャデコーディング方法であって、
    デコードすべきブロックの動き情報を決定するステップであり、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される、ステップと、
    前記動き情報に基づいて前記デコードすべきブロックの第1のデコーディング予測ブロックを取得するステップと、
    前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得するステップであり、前記動き探索の探索位置は、前記予測動きベクトル及び前記第1の精度に基づいて決定される、ステップと、
    前記第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得するステップと、
    前記少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得するステップと、
    前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記デコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用するステップと、
    前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得するステップであり、
    前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
    前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルである、ステップと、
    前記第1の対象予測動きベクトルに基づいて前記デコードすべきブロックの第1の対象デコーディング予測ブロックを取得するステップと
    前記第2の対象予測動きベクトルに基づいて前記デコードすべきブロックの第2の対象デコーディング予測ブロックを取得するステップと、
    前記第1の対象デコーディング予測ブロック及び前記第2の対象デコーディング予測ブロックに基づいて前記デコードすべきブロックをデコードするステップと、
    を含む方法。
  2. 前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算することは、
    前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用すること、又は
    前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用すること
    を含む、請求項1に記載の方法。
  3. 前記少なくとも2つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
    前記上ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記下ブロックを除外することであり、前記ベースブロックは、前記予測動きベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記対象オフセットは、前記第1の精度に基づいて決定されること、又は
    前記下ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記上ブロックを除外すること、又は
    前記左ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記右ブロックを除外することであり、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得されること、又は
    前記右ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記左ブロックを除外すること
    を含む、請求項1又は2に記載の方法。
  4. 前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
    前記下ブロック及び前記右ブロックが除外されているとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得することであり、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
    前記下ブロック及び前記左ブロックが除外されているとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得することであり、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、
    前記上ブロック及び前記左ブロックが除外されているとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得することであり、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
    前記上ブロック及び前記右ブロックが除外されているとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得することであり、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること
    をさらに含む、請求項3に記載の方法。
  5. 前記少なくとも2つの第2のデコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得することは、
    前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得することであり、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得され、前記対象オフセットは前記第1の精度に基づいて決定されること、又は
    前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記右ブロックに対応する差が前記左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得することであり、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
    前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得することであり、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること、又は
    前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得することであり、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであること
    を含む、請求項1又は2に記載の方法。
  6. デコードすべきブロックの動き情報を決定した後、当該方法は、
    前記予測動きベクトルを上方又は下方に丸めるステップ
    をさらに含む請求項1乃至5のうちいずれか1項に記載の方法。
  7. 前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得した後、当該方法は、
    前記少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるステップ
    をさらに含む請求項1乃至6のうちいずれか1項に記載の方法。
  8. ビデオシーケンスのためのピクチャデコーディング装置であって、
    デコードすべきブロックの動き情報を決定し、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
    前記動き情報に基づいて前記デコードすべきブロックの第1のデコーディング予測ブロックを取得し;前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のデコーディング予測ブロックを取得し、前記動き探索の探索位置は、前記予測動きベクトル及び前記第1の精度に基づいて決定され;前記第1のデコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;前記少なくとも2つの第2のデコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記デコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記デコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のデコーディング予測ブロックとの間の動きベクトルを使用し;前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得し、
    前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
    前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルであるように構成された処理モジュールと、
    前記第1の対象予測動きベクトルに基づいて前記デコードすべきブロックの第1の対象デコーディング予測ブロックを取得し;前記第2の対象予測動きベクトルに基づいて前記デコードすべきブロックの第2の対象デコーディング予測ブロックを取得し;前記第1の対象デコーディング予測ブロック及び前記第2の対象デコーディング予測ブロックに基づいて前記デコードすべきブロックをデコードするように構成されたデコーディングモジュールと、
    を含む装置。
  9. 前記処理モジュールは、具体的に、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用し;あるいは、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用するように構成される、請求項8に記載の装置。
  10. 前記少なくとも2つの第2のデコーディング予測ブロックは、ベースブロック、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記処理モジュールは、具体的に、前記上ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記下ブロックを除外し、前記ベースブロックは、前記予測動きベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記対象オフセットは、前記第1の精度に基づいて決定され;あるいは、前記下ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記上ブロックを除外し;あるいは、前記左ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記右ブロックを除外し、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得され;あるいは、前記右ブロックに対応する差が前記ベースブロックに対応する差より小さいとき、前記少なくとも2つの第2のデコーディング予測ブロックから前記左ブロックを除外するように構成される、請求項8又は9に記載の装置。
  11. 前記処理モジュールは、さらに、前記下ブロック及び前記右ブロックが除外されているとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得し、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;前記下ブロック及び前記左ブロックが除外されているとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得し、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;前記上ブロック及び前記左ブロックが除外されているとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得し、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、前記上ブロック及び前記右ブロックが除外されているとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得し、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される、請求項10に記載の装置。
  12. 前記少なくとも2つの第2のデコーディング予測ブロックは、上ブロック、下ブロック、左ブロック、及び右ブロックを含み、前記処理モジュールは、具体的に、前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第5の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左上ブロックを取得し、前記第5の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される位置を対象オフセットだけ左に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記左上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり、前記上ブロックは、第1の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第1の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ上にシフトすることにより取得され、前記下ブロックは、第2の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第2の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ下にシフトすることにより取得され、前記左ブロックは、第3の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第3の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左にシフトすることにより取得され、前記右ブロックは、第4の予測ベクトルに基づいて前記予測参照ピクチャブロック内で取得され、前記第4の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右にシフトすることにより取得され、前記対象オフセットは前記第1の精度に基づいて決定され;あるいは、前記上ブロックに対応する差が前記下ブロックに対応する差より小さく、前記右ブロックに対応する差が前記左ブロックに対応する差より小さいとき、第6の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右上ブロックを取得し、前記第6の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ上にシフトすることにより取得され、前記右上ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記右ブロックに対応する差が左ブロックに対応する差より小さいとき、第7の予測ベクトルに基づいて前記予測参照ピクチャブロック内の右下ブロックを取得し、前記第7の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ右に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記右下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであり;あるいは、前記下ブロックに対応する差が前記上ブロックに対応する差より小さく、前記左ブロックに対応する差が前記右ブロックに対応する差より小さいとき、第8の予測ベクトルに基づいて前記予測参照ピクチャブロック内の左下ブロックを取得し、前記第8の予測ベクトルにより示される位置は、前記予測動きベクトルにより示される前記位置を前記対象オフセットだけ左に、及び前記対象オフセットだけ下にシフトすることにより取得され、前記左下ブロックは、前記少なくとも2つの第2のデコーディング予測ブロックのうちの1つであるように構成される、請求項8又は9に記載の装置。
  13. 前記処理モジュールは、さらに、前記予測動きベクトルを上方又は下方に丸めるように構成される、請求項8乃至12のうちいずれか1項に記載の装置。
  14. 前記処理モジュールは、さらに、前記少なくとも2つの第2のデコーディング予測ブロックにそれぞれ対応する予測動きベクトルを上方又は下方に丸めるように構成される、請求項8乃至13のうちいずれか1項に記載の装置。
  15. ロセッサに請求項1乃至7のうちいずれか1項に記載の方法を実行させるコンピュータプログラム
  16. ビデオシーケンスのためのピクチャエンコーディング方法であって、
    エンコードすべきブロックの動き情報を決定するステップであり、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用される、ステップと、
    前記動き情報に基づいて前記エンコードすべきブロックの第1のエンコーディング予測ブロックを取得するステップと、
    前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得するステップと、
    前記第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得するステップと、
    前記少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得するステップと、
    前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記エンコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用するステップと、
    前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得するステップであり、
    前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
    前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルである、ステップと、
    前記第1の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第1の対象エンコーディング予測ブロックを取得するステップと
    前記第2の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第2の対象エンコーディング予測ブロックを取得するステップと、
    前記第1の対象エンコーディング予測ブロック及び前記第2の対象エンコーディング予測ブロックに基づいて前記エンコードすべきブロックをエンコードするステップと、
    を含む方法。
  17. 前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算することは、
    前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用すること、又は
    前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用すること
    を含む、請求項16に記載の方法。
  18. ビデオシーケンスのためのピクチャエンコーディング装置であって、
    エンコードすべきブロックの動き情報を決定し、前記動き情報は、予測動きベクトル及び参照ピクチャ情報を含み、前記参照ピクチャ情報は、予測参照ピクチャブロックを識別するために使用されるように構成された決定モジュールと、
    前記動き情報に基づいて前記エンコードすべきブロックの第1のエンコーディング予測ブロックを取得し;前記予測参照ピクチャブロックにおいて第1の精度で動き探索を実行して少なくとも2つの第2のエンコーディング予測ブロックを取得し;前記第1のエンコーディング予測ブロックに対してダウンサンプリングを実行して第1のサンプリングピクセルアレイを取得し;前記少なくとも2つの第2のエンコーディング予測ブロックに対してダウンサンプリングを実行して少なくとも2つの第2のサンプリングピクセルアレイを取得し;前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々との間の差を計算し、前記エンコードすべきブロックの第1の方向における第1の対象予測動きベクトルとして、前記エンコードすべきブロックと最小差を有する第2のサンプリングピクセルアレイに対応する第2のエンコーディング予測ブロックとの間の動きベクトルを使用し、前記第1の対象予測動きベクトルに基づいて第2の方向における第2の対象予測動きベクトルを取得し、
    前記第1の方向は順方向の方向であり、前記第2の方向は逆方向の方向であり、前記第1の対象予測動きベクトルは順方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは逆方向対象予測動きベクトルであり、あるいは、
    前記第1の方向は逆方向の方向であり、前記第2の方向は順方向の方向であり、前記第1の対象予測動きベクトルは逆方向対象予測動きベクトルであり、前記第2の対象予測動きベクトルは順方向対象予測動きベクトルであるように構成された処理モジュールと、
    前記第1の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第1の対象エンコーディング予測ブロックを取得し;前記第2の対象予測動きベクトルに基づいて前記エンコードすべきブロックの第2の対象エンコーディング予測ブロックを取得し;前記第1の対象エンコーディング予測ブロック及び前記第2の対象エンコーディング予測ブロックに基づいて前記エンコードすべきブロックをエンコードするように構成されたエンコーディングモジュールと、
    を含む装置。
  19. 前記処理モジュールは、具体的に、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の絶対値の和を計算し、前記差として前記ピクセル差の前記絶対値の和を使用し;あるいは、前記第1のサンプリングピクセルアレイと前記第2のサンプリングピクセルアレイの各々とにおける対応する位置におけるピクセルのピクセル差の二乗和を計算し、前記差として前記ピクセル差の前記二乗和を使用するように構成される、請求項18に記載の装置。
JP2021530828A 2018-11-30 2019-07-29 ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置 Active JP7273154B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023072944A JP2023100767A (ja) 2018-11-30 2023-04-27 ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811458677.4 2018-11-30
CN201811458677.4A CN111263152B (zh) 2018-11-30 2018-11-30 视频序列的图像编解码方法和装置
PCT/CN2019/098151 WO2020107921A1 (zh) 2018-11-30 2019-07-29 视频序列的图像编解码方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023072944A Division JP2023100767A (ja) 2018-11-30 2023-04-27 ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置

Publications (2)

Publication Number Publication Date
JP2022509982A JP2022509982A (ja) 2022-01-25
JP7273154B2 true JP7273154B2 (ja) 2023-05-12

Family

ID=70854462

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021530828A Active JP7273154B2 (ja) 2018-11-30 2019-07-29 ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置
JP2023072944A Pending JP2023100767A (ja) 2018-11-30 2023-04-27 ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023072944A Pending JP2023100767A (ja) 2018-11-30 2023-04-27 ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置

Country Status (9)

Country Link
US (3) US11503317B2 (ja)
JP (2) JP7273154B2 (ja)
KR (1) KR20210094038A (ja)
CN (2) CN111263152B (ja)
BR (1) BR112021010415A2 (ja)
CA (1) CA3121402C (ja)
MX (1) MX2021006391A (ja)
SG (1) SG11202105655SA (ja)
WO (1) WO2020107921A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111263152B (zh) * 2018-11-30 2021-06-01 华为技术有限公司 视频序列的图像编解码方法和装置
US11412253B2 (en) * 2020-02-24 2022-08-09 Alibaba Group Holding Limited Methods for combining decoder side motion vector refinement with wrap-around motion compensation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019234672A1 (en) 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Partial cost calculation
WO2020008343A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Block size restrictions for dmvr

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671321B1 (en) * 1999-08-31 2003-12-30 Mastsushita Electric Industrial Co., Ltd. Motion vector detection device and motion vector detection method
KR100534207B1 (ko) * 2002-12-09 2005-12-08 삼성전자주식회사 비디오 부호화기의 움직임 추정기 및 그 방법
KR100994773B1 (ko) * 2004-03-29 2010-11-16 삼성전자주식회사 계층적 움직임 추정에 있어서 움직임 벡터 생성 방법 및장치
CN101340578A (zh) * 2007-07-03 2009-01-07 株式会社日立制作所 运动矢量估计装置、编码器及摄像机
CN101605256A (zh) * 2008-06-12 2009-12-16 华为技术有限公司 一种视频编解码的方法及装置
CN102883160B (zh) 2009-06-26 2016-06-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
CN102316317B (zh) 2010-07-10 2013-04-24 华为技术有限公司 一种生成图像预测值的方法和装置
US9706221B2 (en) * 2013-10-29 2017-07-11 Vixs Systems Inc. Motion search with scaled and unscaled pictures
US10484721B2 (en) 2014-03-17 2019-11-19 Qualcomm Incorporated Method for motion estimation of non-natural video data
CN106331703B (zh) * 2015-07-03 2020-09-08 华为技术有限公司 视频编码和解码方法、视频编码和解码装置
MY194555A (en) 2016-09-30 2022-12-01 Huawei Tech Co Ltd Method and Apparatus for Image Coding and Decoding Through Inter Prediction
US10750203B2 (en) * 2016-12-22 2020-08-18 Mediatek Inc. Method and apparatus of adaptive bi-prediction for video coding
JP2018148486A (ja) * 2017-03-08 2018-09-20 キヤノン株式会社 画像符号化装置、画像符号化方法、及びプログラム
JP6435029B2 (ja) * 2017-09-28 2018-12-05 日本電信電話株式会社 映像符号化装置及び映像符号化プログラム
US10542277B2 (en) * 2017-10-24 2020-01-21 Arm Limited Video encoding
CN108900847B (zh) * 2018-06-11 2020-06-30 阿依瓦(北京)技术有限公司 一种基于块匹配的大范围预测方法
CN111263152B (zh) * 2018-11-30 2021-06-01 华为技术有限公司 视频序列的图像编解码方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019234672A1 (en) 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Partial cost calculation
WO2020008343A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Block size restrictions for dmvr

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hongbin Liu et al.,CE9-related: Simplification of Decoder Side Motion Vector Derivation,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0105-v1,2018年07月13日
Semih Esenlik et al.,Simplified DMVR for inclusion in VVC,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0670,2018年10月06日

Also Published As

Publication number Publication date
MX2021006391A (es) 2021-09-10
KR20210094038A (ko) 2021-07-28
EP3879827A1 (en) 2021-09-15
CN113412619A (zh) 2021-09-17
CA3121402A1 (en) 2020-06-04
BR112021010415A2 (pt) 2021-08-24
WO2020107921A1 (zh) 2020-06-04
CA3121402C (en) 2024-03-05
CN111263152B (zh) 2021-06-01
SG11202105655SA (en) 2021-06-29
US20210289220A1 (en) 2021-09-16
CN111263152A (zh) 2020-06-09
US20230030845A1 (en) 2023-02-02
US11503317B2 (en) 2022-11-15
US11818379B2 (en) 2023-11-14
JP2023100767A (ja) 2023-07-19
US20240022748A1 (en) 2024-01-18
JP2022509982A (ja) 2022-01-25

Similar Documents

Publication Publication Date Title
JP6881788B2 (ja) 映像符号化方法、映像復号方法、および端末
KR102219320B1 (ko) 인터 프레임 예측을 위한 이미지 코딩 및 디코딩을 위한 방법 및 디바이스
EP3531698A1 (en) Deblocking filter method and terminal
CN109218733B (zh) 一种确定预测运动矢量预测的方法以及相关设备
JP2023100767A (ja) ビデオシーケンスのためのピクチャエンコーディング及びデコーディング方法及び装置
JP2023017955A (ja) 動きベクトル取得方法および装置
KR20200132985A (ko) 양방향 인트라 예측 시그널링
CN112352434B (zh) 用于帧内预测的基于宽高比滤波的方法和装置
JP7279084B2 (ja) イントラ予測のための方法及び装置
CN113557738B (zh) 视频图像预测方法及装置
JP6968228B2 (ja) インター予測を介する画像符号化および復号のための方法および装置
JP7036893B2 (ja) 映像符号化方法、映像復号方法、および端末

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230427

R150 Certificate of patent or registration of utility model

Ref document number: 7273154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150