JP7311619B2 - コーデック方法及び装置、符号化デバイス及び復号化デバイス - Google Patents

コーデック方法及び装置、符号化デバイス及び復号化デバイス Download PDF

Info

Publication number
JP7311619B2
JP7311619B2 JP2021552234A JP2021552234A JP7311619B2 JP 7311619 B2 JP7311619 B2 JP 7311619B2 JP 2021552234 A JP2021552234 A JP 2021552234A JP 2021552234 A JP2021552234 A JP 2021552234A JP 7311619 B2 JP7311619 B2 JP 7311619B2
Authority
JP
Japan
Prior art keywords
motion vector
block
pixel
sub
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021552234A
Other languages
English (en)
Other versions
JP2022522376A (ja
Inventor
陳方棟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Publication of JP2022522376A publication Critical patent/JP2022522376A/ja
Priority to JP2023111468A priority Critical patent/JP2023126940A/ja
Application granted granted Critical
Publication of JP7311619B2 publication Critical patent/JP7311619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/557Motion estimation characterised by stopping computation or iteration based on certain criteria, e.g. error magnitude being too large or early exit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Description

本願はコーデック技術、特にコーデック方法及び装置、符号化デバイス及び復号化デバイスに関する。
空間節約の目的を達成するために、ビデオ画像はいずれも符号化済み後に伝送されたものであり、完全なビデオ符号化方法は予測、変換、量子化、エントロピー符号化、フィルタリング等の過程を含んでよい。ここで、予測符号化はイントラ符号化及びインター符号化を含み、インター符号化はビデオの時間領域の相関性を利用し、符号化済み画像に隣接する画素を使用して現在の画像の画素を予測することで、ビデオの時間領域冗長度を効率的に削減することを図る。
インター符号化では、現在のフレームのビデオ画像の現在の画像ブロックと参照フレームのビデオ画像の参照画像ブロックとの間の相対変位を動きベクトル(Motion Vector,MV)で表すことができる。例えば、現在のフレームのビデオ画像Aと参照フレームのビデオ画像Bとは強い時間領域相関性が存在する場合、ビデオ画像Aの画像ブロックA1(現在の画像ブロック)を伝送する必要がある時に、ビデオ画像Bにおいて動き探索を行って、画像ブロックA1に最もマッチングする画像ブロックB1(即ち参照画像ブロック)を検出して、画像ブロックA1と画像ブロックB1との間の相対変位、即ち画像ブロックA1の動きベクトルを確定する。
符号化側は、画像ブロックA1を復号化側に送信する代わりに、動きベクトルを復号化側に送信してよい。復号化側は、動きベクトルと画像ブロックB1に基づいて画像ブロックA1を取得してよい。明らかに、動きベクトルが占めるビット数は画像ブロックA1が占めるビット数より少ないため、上記方式では大量のビットを節約できる。
従来の方式では、現在のブロックが単方向ブロックである場合、現在のブロックの動きベクトル(以下、オリジナル動きベクトルという)を獲得した後、オリジナル動きベクトルを調整して、調整された動きベクトルに基づいて符号化/復号化を行うことによって、符号化性能を向上させることができる。しかし、現在のブロックが双方向ブロックである場合、現在のブロックの第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルを取得した後、どのように第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルを調整するかについては、現在合理的な解決手段がない。即ち、双方向ブロックの状況については、予測品質不良や、予測ミスなどの問題の可能性があるため、符号化性能が低い。
符号化性能を向上させるコーデック方法、装置及びデバイスを提供する。
本願は復号化方法を提供し、前記方法は、現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを含み、前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含む
前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}であってよい。
前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することにおいて、候補動きベクトルに対応するコスト値を取得することは、第1の参照ブロックに基づいて、前記候補動きベクトルに対応する第1のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記候補動きベクトルに対応する第2のサブ参照ブロックを確定することと、垂直2倍のダウンサンプリングを行い、前記第1の参照ブロック及び前記第2の参照ブロックの各画素値の差分絶対値和を取得することと、取得した差分絶対値和に基づいて、前記候補動きベクトルに対応するコスト値を確定することと、を含み、オリジナル動きベクトルに対応するコスト値を取得することは、第1の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第3のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第4のサブ参照ブロックを確定することと、垂直2倍のダウンサンプリングを行い、前記第1のサブ参照ブロック及び前記第2のサブ参照ブロックの各画素値の差分絶対値和を取得することと、取得した差分絶対値和に基づいて、前記オリジナル動きベクトルに対応するコスト値を確定することと、を含んでよい。
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することと、前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することと、を含んでよい。
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することは、前記最適動きベクトルに基づいて、前記最適動きベクトルと前記オリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、前記第1の整数画素動きベクトル調整値に基づいて、第2の整数画素動きベクトル調整値を確定し、前記第2の整数画素動きベクトル調整値と前記第1の整数画素動きベクトル調整値とは互いに反数であることと、を含んでよい。
前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することとは、前記第1の目標動きベクトルは、前記第1のオリジナル動きベクトルと前記第1の整数画素動きベクトル調整値との和であることと、前記第2の目標動きベクトルは、前記第2のオリジナル動きベクトルと前記第2の整数画素動きベクトル調整値との和であることと、を含んでよい。
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値と、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値とを確定することと、第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値に基づいて、第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを取得することと、第2の整数画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値に基づいて、第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを取得することと、を含んでよい。
前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することと、第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値を基づいて、最適オフセット動きベクトルを取得することと、前記最適オフセット動きベクトルに基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1の目標動きベクトルを取得することと、前記最適オフセット動きベクトルの反数に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2の目標動きベクトルを取得することと、を含んでよい。
前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することは、前記最適動きベクトルに基づいて、前記最適動きベクトルと前記第1のオリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することと、を含んでよい。
前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することは、前記最適動きベクトルを中心とした5つの整数画素動きベクトルのコスト値を順次に確定し、前記5つの整数画素動きベクトルは、前記最適動きベクトルを中心として、それぞれ、水平に左へ、水平に右へ、垂直に上へ、垂直に下へシフトするにより取得した5つのエッジ動きベクトルであることと、前記5つの整数画素動きベクトルのコスト値に基づいて、前記第1のサブ画素動きベクトル調整値を確定することと、を含んでよい。
第1の目標動きベクトルは、第1のオリジナル動きベクトルと、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値との和であってよく、第2の目標動きベクトルは、第2のオリジナル動きベクトルと、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値との和であってよく、前記第2の整数画素動きベクトル調整値と、前記第1の整数画素動きベクトル調整値とは、互いに反数であってよく、前記第2のサブ画素動きベクトル調整値と、前記第1のサブ画素動きベクトル調整値とは、互いに反数である。
前記最適動きベクトルは、前記オリジナル動きベクトル及び各候補動きベクトルから選択されたコスト値が最も小さい動きベクトルであってよい。
第1の整数画素動きベクトル調整値における垂直及び/又は水平方向の絶対値が予て設定された値に等しい場合、前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得してよい。
第1の整数画素動きベクトル調整値における垂直及び/又は水平方向の絶対値が予て設定された値に等しくない場合、前記第1の整数画素動きベクトル調整値及び前記第1のサブ画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得してよい。
オリジナル動きベクトルに対応するコスト値が予て設定された閾値以上である場合、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択するステップを実行してよく、オリジナル動きベクトルに対応するコスト値が予て設定された閾値小さい場合、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択するステップを実行しなくてよく、前記予て設定された閾値は、前記サブブロックの幅及び高さにより確定される。
前記現在のブロックが1つのサブブロックのみを含む場合、当該サブブロックは現在のブロック自体であってよい。
前記第1の参照ブロック及び第2の参照ブロックは、輝度成分に基づいて確定した参照ブロックであってよい。
前記第1の参照ブロックの画素値及び第2の参照ブロックの画素値のどちらも、バイリニア補間で取得されるものであってよい。
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップは、前記第1のオリジナル動きベクトル及び前記現在のブロックの第1の参照フレームに基づいて、バイリニア補間で第1の参照ブロックを確定することと、前記第2のオリジナル動きベクトル及び前記現在のブロックの第2の参照フレームに基づいて、バイリニア補間で第2の参照ブロックを確定することと、を含んでよく、前記第1の参照ブロックのサイズと前記第2の参照ブロックのサイズとは同じであり、前記第1の参照ブロックの幅値は、前記サブブロックの幅値及び探索範囲に基づいて確定され、前記第1の参照ブロックの高さ値は、前記サブブロックの高さ値及び探索範囲に基づいて確定される。
前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップは、前記第1のオリジナル動きベクトルに基づいて、前記現在のブロックの第1の参照フレームから第1の整数画素ブロックを取得し、前記第1の整数画素ブロックに対してバイリニア補間を行って前記第1の参照ブロックを取得することと、前記第2のオリジナル動きベクトルに基づいて、前記現在のブロックの第2の参照フレームから第2の整数画素ブロックを取得し、前記第2の整数画素ブロックに対してバイリニア補間を行って前記第2の参照ブロックを取得することと、を含んでよく、Wは前記サブブロックの幅であり、Hは前記現在のブロックの高さであり、SRは探索範囲である場合、第1の参照ブロック及び第2の参照ブロックの幅値はW+2*SRであり、第1の参照ブロック及び第2の参照ブロックの高さ値はH+2*SRであり、SRの値は2としてよい。
第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行う際に、重みが同じであってよい。
前記第3の参照ブロックの画素値及び前記第4の参照ブロックの画素値は、8タップの補間フィルタにより補間して取得されてよい。
前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することは、前記第1の目標動きベクトルに基づいて、前記現在のブロックの第1の参照フレームから前記サブブロックに対応する第5の参照ブロックを確定し、8タップの補間フィルタにより前記第5の参照ブロックにおける画素値を補間して、前記第3の参照ブロックを取得することと、前記第2の目標動きベクトルに基づいて、前記現在のブロックの第2の参照フレームから前記サブブロックに対応する第6の参照ブロックを確定し、8タップの補間フィルタにより前記第6の参照ブロックにおける画素値を補間して、前記第4の参照ブロックを取得することと、を含んでよく、前記第5の参照ブロックのサイズは、前記サブブロックより大きいであり、前記第6の参照ブロックのサイズは、前記サブブロックより大きいであり、前記サイズは、幅と高さとを含んでよい。
前記サブブロックは、輝度成分を含んでよく、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップは、前記サブブロックの輝度成分に対して、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックに対して重み付け動き補償を行い、前記サブブロックの輝度予測値を取得することを含んでよい。
前記サブブロックは、色度成分を含んでよく、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップは、前記サブブロックの色度成分に対して、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックに対して重み付け動き補償を行い、前記サブブロックの色度予測値を取得することを含んでよい。
現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックの特徴情報が特定の条件を満たしてよく、前記特徴情報は、現在のブロックに対応する動き情報予測モードと、現在のブロックに対応する動き情報属性と、現在のブロックのサイズ情報とを含んでよく、前記現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックの特徴情報が満たす特定の条件は、少なくとも、現在のブロックはMMVDモードを使用しないことと、現在のブロックはMergeモードを使用することと、現在のブロックのサイズは限定範囲内であることと、現在のブロックの動き情報は2つの異なる方向の動き情報を含み、且つ、2つの異なる方向の動き情報に対応する2つの参照フレームが現在のフレームとの距離は同じであってよい。
現在のブロックはMMVDモードを使用しないことと、現在のブロックはMergeモードを使用することと、現在のブロックのサイズは限定範囲内であることと、現在のブロックの動き情報属性は2つの異なる方向の動き情報を含み、且つ、2つの異なる方向の動き情報に対応する2つの参照フレームが現在のフレームとの距離は同じであることとの中の何れか1つの条件を満たさない場合、現在のブロックは、動きベクトルリファインメントモードを有効にしないこと、をさらに含んでよい。
前記現在のブロックが所在する現在のフレームと、第1の参照フレーム、第2の参照フレームのそれぞれとの間の距離は同じであってよい。
前記現在のブロックが1つのサブブロックのみを含む場合、当該サブブロックは前記現在のブロック自体であり、前記第1のオリジナル動きベクトル及び前記第2のオリジナル動きベクトルは、前記現在のブロックのオリジナル動きベクトルであってよい。
前記現在のブロックが複数のサブブロックを含む場合、前記複数のサブブロックのそれぞれの前記第1のオリジナル動きベクトル及び前記第2のオリジナル動きベクトルは、前記現在のブロックの2つの異なる方向のオリジナル動きベクトルを共用してよい。
本願は符号化方法を提供し、前記方法は、
現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを含み、前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含む。
本願はコーデック装置を提供し、前記装置は、現在のブロックの特徴情報が特定の条件を満たす場合、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて前記現在のブロックに対応する第2の参照ブロックを確定する確定モジュールと、前記第1の参照ブロックの第1の画素値と前記第2の参照ブロックの第2の画素値とに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得る処理モジュールと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて前記現在のブロックを符号化又は復号化するコーデックモジュールと、を含む。
本願は符号化デバイスを提供し、前記符号化デバイスはプロセッサ及び機械可読記憶媒体を含み、前記プロセッサは、機械実行可能な命令を実行することで、現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを、実現し、前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含む、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記最適動きベクトルを取得するステップと、前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含む。
本願は復号化デバイスを提供し、前記復号化デバイスはプロセッサ及び機械可読記憶媒体を含み、前記プロセッサは、機械実行可能な命令を実行することで、現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを、実現し、前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含む、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記最適動きベクトルを取得するステップと、前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含む。
本願は機械可読記憶媒体を提供し、前記機械可読記憶媒体は、プロセッサによって実行されると、前記プロセッサに前記方法を実現させるコンピュータ命令が格納される。
上記した技術案から分かるように、本願の実施例において、直接に第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルに基づいて現在のブロックを符号化又は復号化するのではなく、第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルに基づいて現在のブロックの第1の目標動きベクトル及び第2の目標動きベクトルを確定して、第1の目標動きベクトル及び第2の目標動きベクトルに基づいて現在のブロックを符号化又は復号化できるため、予測品質不良や、予測ミスなどの問題を解決しつつ、符号化性能及び符号化効率を向上させる。
本願の実施例又は従来の技術における技術案をより明確に説明するために、以下では本願の実施例又は従来の技術の説明に使用する必要がある図面を簡単に紹介する。明らかに、以下の説明における図面は本願に記載されているいくつかの実施例に過ぎず、当業者であれば、これらの本願の実施例の図面に基づいて他の図面をさらに取得できる。
図1Aは本願の一実施形態における補間の模式図である。 図1Bは本願の一実施形態におけるビデオ符号化アーキテクチャの模式図である。 図2は本願の一実施形態におけるコーデック方法のフローチャートである。 図3は本願の一実施形態におけるコーデック方法のフローチャートである。 図4は本願の一実施形態におけるコーデック方法のフローチャートである。 図5は本願の実施形態における参照画素の模式図である。 図6は本願の一実施形態における動きベクトルの反復の模式図である。 図7A~図7Eは本願の一実施形態における候補点の順序の模式図である。 図8は本願の一実施形態における現在のブロックの空間領域の参照の模式図である。 図9は本発明の一実施形態におけるコーデック装置の構成図である。 図10は本願の一実施形態における復号化デバイスのハードウェア構成図である。 図11は本願の一実施形態における符号化デバイスのハードウェア構成図である。
本願の実施形態で用いられる用語は、特定の実施例を説明するためのものに過ぎず、本願を限定するものではない。本願および特許請求の範囲で用いられる「一」や「前記」、「当該」は、その意味が文脈で明示されていない限り、単数形とされる以外、複数形ともされる。本明細書で用いられる用語「及び/又は」とは、互いに関連する項目のうち、任意の1つ又は複数の組合せ、あるいはその全ての可能な組合せを含むこと意味することが理解される。
第1、第2、第3などの用語がいろんな情報の説明に用いられるが、これらの情報はこれらの用語に限定されていないことが理解される。これらの用語は、単に同一類型の情報を互いに区別するために用いられる。例えば、本願の範囲から逸脱しない場合であれば、第1の情報を第2の情報と呼ぶことができ、同様に、第2の情報を第1の情報と呼ぶこともできる。用いられる用語「…と」は、文脈に基づいて、「…場合」、「…時」、又は「…の確定に応じて」と解釈され得る。
本願の実施例はコーデック方法を提供し、以下の概念に関しうる。
イントラ予測とインター予測(intra prediction and inter prediction)技術において、イントラ予測はビデオの空間領域の相関性を利用し、現在の画像の符号化済みブロックの画素を利用して現画素を予測し、ビデオの空間領域の冗長度を削減することを図る。イントラ予測では、複数の予測モードが定義されており、各予測モードはそれぞれ1種類のテクスチャ方向に対応する(DCモードを除く)。現在のブロックの予測画素は、予測方向にそれと隣接するブロックの境界再構成画素値から生成される。例えば、画像のテクスチャが水平配置の場合、水平予測モードを選択すると、画像情報をより良好に予測できる。インター符号化は、ビデオの時間領域の相関性を利用し、ビデオシーケンスは通常強い時間領域相関性があるため、隣接する符号化済み画像画素を用いて現在の画像の画素を予測することで、ビデオの時間領域冗長度を効率的に削減することを図る。主なビデオ符号化標準におけるインター符号化の部分はいずれもブロックに基づく動き補償技術を用いる。主な原理は、現在の画像の各画素ブロックに対して、その前の符号化済み画像において最適ブロックを探索することであり、当該過程は動き推定(Motion Estimation,ME)と呼ばれる。
動きベクトル(MV,Motion Vector)は、インター符号化において、現在の符号化ブロックとその参照画像における最適マッチングブロックの間との相対変位を表すことに用いられる。区画された各ブロックは、いずれも対応する動きベクトルが復号化側に伝送される。各ブロックの動きベクトルをそれぞれ別々に符号化と伝送を行う場合、特に小サイズのブロックに区画する場合、相当なビットを消費する必要がある。動きベクトルの符号化に用いられるビット数を低減するために、隣接する画像ブロックの間の空間領域の相関性を利用し、隣接する符号化済みブロックの動きベクトルに基づいて、現在符号化されるブロックの動きベクトルを予測して、予測差分を符号化する。これにより、動きベクトルを表すビット数を効果的に低減させることができる。現在のブロックの動きベクトルの符号化処理において、まず、隣接する符号化済みブロックの動きベクトルを用いて現在のブロックの動きベクトルを予測して、動きベクトルの予測値(MVP,MotionVector Prediction)と動きベクトルの真の推定値との差分(MVD,MotionVector Difference)を符号化することで、MVの符号化ビット数を効果的に低減させる。
動き情報(Motion Information)は、動きベクトルが現在の画像ブロックとある参照画像ブロックとの位置オフセットを示すため、画像ブロックを指す情報を正確に取得するために、動きベクトルに加えて、どの参照フレーム画像を使用するかを示す参照フレーム画像のインデックス情報も必要である。ビデオ符号化技術において、現在のフレーム画像に対して、一般的に1つの参照フレーム画像リストを確立してよい。参照フレーム画像のインデックス情報は、現在の画像ブロックが、参照フレーム画像リストにおける何番目の参照フレーム画像が用いられているかを示す。また、多くの符号化技術では、複数の参照画像リストがあることサポートする。そのため、もう1つのインデックス値を用いて、どの参照画像リストが用いられているかを示してよい。このインデックス値は参照方向と呼べる。ビデオ符号化技術において、動きベクトル、参照フレームインデックス、参照方向等の動きに関連する情報を動き情報と総称してよい。
予測画素(Prediction Signal)は、符号化・復号化済み画素から導出された画素値であり、原画素と予測画素との差分から残差を得て、残差変換量子化及び係数符号化を行う。特殊の場合、インター予測画素は現在のブロックが参照フレーム(再構成画素フレーム)から導出した画素値であり、画素位置が離散的であるため、補間演算で最終的な予測画素を取得する必要がある。予測画素と原画素が近いほど、両者を減算して得た残差エネルギーが小さくなり、符号化圧縮性能が高くなる。
補間(Interpolation)については、現在のMVが非整数画素精度である場合、対応する参照フレームから既存の画素値を直接コピーできず、必要な画素値を補間することで取得することしかできない。図1Aに示すように、オフセットが1/2画素の画素値Y1/2を取得しようとする場合、周囲の既存の画素値Xを補間して取得する必要がある。タップ数がNである補間フィルタを用いると、周囲N個の整数画素を補間して取得する必要がある。
動き補償は、補間又はコピーによって現在のブロックの全ての画素値を取得する処理である。
ビデオ符号化アーキテクチャは、図1Bに示すように、本願の実施例の符号化側の処理を実現することに用いられる。また、ビデオ復号化アーキテクチャの模式図が図1Bと類似しているため、ここでの説明を省略する。また、ビデオ復号化アーキテクチャは、本願の実施例の復号化側の処理を実現することに用いられる。具体的には、ビデオ符号化アーキテクチャ及びビデオ復号化アーキテクチャは、イントラ予測、動き推定/動き補償、参照画像バッファー、ループ内フィルタリング、再構成、変換、量子化、逆変換、逆量子化、エントロピーエンコーダ等のモジュールを含む。符号化側では、これらのモジュール間の協働により、符号化側の処理を実現できる。復号化側では、これらのモジュール間の協働により、復号化側の処理を実現できる。
従来の方式では、現在のブロックが双方向ブロックである場合、現在のブロックの第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルを取得した後、どのように第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルを調整するかについては、合理的な解決手段がない。本願の実施例において、現在のブロックが双方向ブロックである時に、まず現在のブロックの特徴情報が特定の条件を満たすか否かを判断し、特定の条件を満たす場合、現在のブロックの第1のオリジナル動きベクトルに基づいて現在のブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて現在のブロックに対応する第2の参照ブロックを確定して、第1の参照ブロックの第1の画素値と前記第2の参照ブロックの第2の画素値とに基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得る。
このように、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整して第1の目標動きベクトルと第2の目標動きベクトルとを得ることで、第1の目標動きベクトルと第2の目標動きベクトルとに基づいて現在のブロックを符号化又は復号化できて、符号化性能及び符号化効率を向上させることができる。
以下、いくつかの具体的な実施例を参照しながら、本願のコーデック方法を詳細に説明する。
実施例1では、図2が本願の実施例に係るコーデック方法のフローチャートであり、当該方法は復号化側又は符号化側に適用でき、以下のステップを含んでよい。
ステップ201では、現在のブロックの特徴情報が特定の条件を満たす場合、現在のブロックの第1のオリジナル動きベクトルに基づいて、現在のブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて、現在のブロックに対応する第2の参照ブロックを確定する。当該特徴情報は、現在のブロックに対応する動き情報予測モードと、現在のブロックに対応する動き情報属性と、現在のブロックのサイズ情報とのうちの1つ又は複数を含むが、これらに限定されない。
一例では、当該特徴情報が現在のブロックに対応する動き情報予測モードである場合、現在のブロックの特徴情報が特定の条件を満たすことは、現在のブロックに対応する動き情報予測モードが通常マージモードである場合、現在のブロックに対応する動き情報予測モードが特定の条件を満たすことを確定すること、又は、現在のブロックに対応する動き情報予測モードがインター予測値とイントラ予測値を統合して新たな予測値を生成するマージモードである場合、現在のブロックに対応する動き情報予測モードが特定の条件を満たすことを確定することを含むが、これらに限定されない。
一例では、特徴情報が現在のブロックに対応する動き情報属性である場合、現在のブロックの特徴情報が特定の条件を満たすことは、現在のブロックに対応する動き情報属性が、現在のブロックの動き情報が2つの異なる方向の動き情報を含むことである場合、現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定すること、又は、現在のブロックに対応する動き情報属性が、現在のブロックの動き情報が2つの異なる方向の動き情報を含み、2つの異なる方向の動き情報に対応する2つの参照フレームと現在のフレームとの距離が同じであることである場合、現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定すること、又は、現在のブロックに対応する動き情報属性が、現在のブロックの周囲ブロックを利用したことである場合、現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定すること、又は、現在のブロックに対応する動き情報属性が現在のブロックの各サブブロックの動き情報と同じであることである場合、現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定することを含むが、これらに限定されない。
例示的に、現在のブロックの動き情報が2つの異なる方向の動き情報を含むこととは、現在のブロックの2つの異なる方向の動き情報がそれぞれ第1の参照フレーム及び第2の参照フレームに対応し、第1の参照フレームが現在のブロックが所在する現在のフレームの前方向に位置し、第2の参照フレームは現在のブロックが所在する現在のフレームの後方向に位置することである。
一例では、当該特徴情報が現在のブロックの幅値及び現在のブロックの高さ値を含む現在のブロックのサイズ情報である場合、現在のブロックの特徴情報が特定の条件を満たすことは、現在のブロックの幅値が第1の区間[第1の閾値,第2の閾値]の範囲内である場合、現在のブロックのサイズ情報が特定の条件を満たすことを確定できること、又は、現在のブロックの高さ値が第2の区間[第3の閾値,第4の閾値]の範囲内である場合、現在のブロックのサイズ情報が特定の条件を満たすことを確定できること、又は、現在のブロックの幅値及び現在のブロックの高さ値によって得られた面積が第3の区間[第5の閾値,第6の閾値]の範囲内である場合、現在のブロックのサイズ情報が特定の条件を満たすことを確定できること、又は、前記幅値が第1の区間[第1の閾値,第2の閾値]の範囲内であり、かつ、前記高さ値が第2の区間[第3の閾値,第4の閾値]の範囲内であり、かつ、前記面積が第3の区間[第5の閾値,第6の閾値]の範囲内である場合、現在のブロックのサイズ情報が特定の条件を満たすことを確定できることを含むが、これらに限定されない。
例示的に、第1の閾値は第2の閾値より小さくてよく、これらの第1の閾値及び第2の閾値はいずれも限定されず、例えば、第1の閾値が4であり、第2の閾値が128であってよい。第3の閾値は第4の閾値より小さくてよく、これらの第3の閾値及び第4の閾値はいずれも限定されず、例えば、第3の閾値が8であり、第4の閾値が128であってよい。第5の閾値は第6の閾値より小さくてよく、これらの第5の閾値及び第6の閾値はいずれも限定されず、例えば、第5の閾値が64であり、第6の閾値が128*128であってよい。
一例では、現在のブロックの第1のオリジナル動きベクトルに基づいて現在のブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて現在のブロックに対応する第2の参照ブロックを確定することは、現在のブロックの第1のオリジナル動きベクトルに基づいて、第1の参照フレームから現在のブロックに対応する第1の参照ブロックを確定することと、現在のブロックの第2のオリジナル動きベクトルに基づいて、第2の参照フレームから現在のブロックに対応する第2の参照ブロックを確定することとを含むが、これらに限定されない。第1の参照ブロックにおける各画素点の第1の画素値は、第1の参照ブロックにおける隣接する画素点の画素値を補間することにより得られ、又は、第1の参照ブロックにおける隣接する画素点の画素値をコピーすることにより得られるものである。第2の参照ブロックにおける各画素点の第2の画素値は、第2の参照ブロックにおける隣接する画素点の画素値を補間することにより得られ、又は、第2の参照ブロックにおける隣接する画素点の画素値をコピーすることにより得られるものである。第1の参照ブロックのサイズは、第2の参照ブロックのサイズと同じであり、第1の参照ブロックの幅値は、現在のブロックの幅値及び探索範囲に基づいて確定され、第1の参照ブロックの高さ値は、現在のブロックの高さ値及び探索範囲に基づいて確定される。
ステップ202では、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得る。
一例では、現在のブロックが少なくとも1つのサブブロックを含む場合、現在のブロックの各サブブロックに対して、第1の画素値及び第2の画素値に基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルを得ることができる。
一例では、第1の画素値及び第2の画素値に基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルを取得することは、第1の画素値及び第2の画素値に基づいて、サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値、及び/又は、サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定することを含むことができる。そして、第1の整数画素動きベクトル調整値及び/又は第1のサブ画素動きベクトル調整値に基づいて、第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを得ることができる。第2の整数画素動きベクトル調整値及び/又は第2のサブ画素動きベクトル調整値に基づいて、第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを得る。
一例では、第1の画素値及び第2の画素値に基づいて、サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値、サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定することは、第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心動きベクトルとして確定することと、中心動きベクトルに対応するエッジ動きベクトルを確定することと、第1の画素値及び第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値及びエッジ動きベクトルに対応する第2のコスト値を取得することと、第1のコスト値及び第2のコスト値に基づいて、中心動きベクトル及びエッジ動きベクトルから1つの動きベクトルを選択して最適動きベクトルとし、終了条件が満たされるか否かを判断することと、終了条件が満たされない場合、最適動きベクトルを中心動きベクトルとして確定し、中心動きベクトルに対応するエッジ動きベクトルを確定することに戻ることと、満たされる場合、最適動きベクトルに基づいてサブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定することと、最適動きベクトルに基づいてサブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定することとを含んでよい。
一例では,中心動きベクトルに対応するエッジ動きベクトルを確定することは、中心動きベクトル(x,y)を異なる方向にSだけシフトし、異なる方向のエッジ動きベクトル(x,y+S)、エッジ動きベクトル(x,y-S)、エッジ動きベクトル(x+S,y)、エッジ動きベクトル(x-S,y)、エッジ動きベクトル(x+right,y+down)を順次得ること、又は、中心動きベクトル(x,y)を異なる方向にSだけシフトし異なる方向のエッジ動きベクトル(x,y-S)、エッジ動きベクトル(x,y+S)、エッジ動きベクトル(x-S,y)、エッジ動きベクトル(x+S,y)、エッジ動きベクトル(x+right,y+down)を、順次得ることを含む。エッジ動きベクトル(x+right,y+down)のデフォルト値は(x-S,y-S)である。エッジ動きベクトル(x+S,y)のコスト値がエッジ動きベクトル(x-S,y)のコスト値より小さい場合、rightはSであり、エッジ動きベクトル(x,y+S)のコスト値がエッジ動きベクトル(x,y-S)のコスト値より小さい場合、downはSである。又は、エッジ動きベクトル(x+S,y)のコスト値がエッジ動きベクトル(x-S,y)のコスト値以下である場合、rightはSであり、エッジ動きベクトル(x,y+S)のコスト値がエッジ動きベクトル(x,y-S)のコスト値以下である場合、downはSである。
一例では、第1の画素値及び第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値、エッジ動きベクトルに対応する第2のコスト値を取得することは、ダウンサンプリングされていない第1の画素値及びダウンサンプリングされていない第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値及びエッジ動きベクトルに対応する第2のコスト値を取得すること、又は、第1の画素値に対してダウンサンプリング操作を行い、第2の画素値に対してダウンサンプリング操作を行い、そして、ダウンサンプリングされた第1の画素値及びダウンサンプリングされた第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値及びエッジ動きベクトルに対応する第2のコスト値を取得すること、又は、第1の画素値に対してシフト及びダウンサンプリングを行い、第2の画素値に対してシフト及びダウンサンプリング操作を行い、そして、処理済みの第1の画素値及び処理された第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値及びエッジ動きベクトルに対応する第2のコスト値を取得することを含んでよいが、これらに限定されない。
一例では、第1の画素値及び第2の画素値に基づいて、サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値と、サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値とを確定することは、第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心として、周囲の動きベクトルから一部又は全ての動きベクトルを選択し、選択された動きベクトルを候補動きベクトルとすることと、第1の画素値及び第2の画素値に基づいて、第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルに対応する第3のコスト値と、候補動きベクトルに対応する第4のコスト値とを取得することと、第3のコスト値及び第4のコスト値に基づいて、最適動きベクトルとして、第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルと、候補動きベクトルとの中から1つの動きベクトルを選択することと、最適動きベクトルに基づいて、サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定することと、最適動きベクトルに基づいて、サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定することとを含んでよい。
最適動きベクトルに基づいて、サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定することは、当該最適動きベクトル及び第1のオリジナル動きベクトルに基づいて、サブブロックの第1の整数画素動きベクトル調整値を確定し、第1の整数画素動きベクトル調整値に基づいて、サブブロックの第2の整数画素動きベクトル調整値を確定することを含んでよいが、これらに限定されない。
最適動きベクトルに基づいて、サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定することは、最適動きベクトルに対応するコスト値と、最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値とに基づいて、サブブロックの第1のサブ画素動きベクトル調整値を確定し、第1のサブ画素動きベクトル調整値に基づいて、サブブロックの第2のサブ画素動きベクトル調整値を確定することを含む。
ステップ203では、第1の目標動きベクトル及び第2の目標動きベクトルに基づいて、現在のブロックを符号化又は復号化する。例えば、符号化側の場合、符号化側は、第1の目標動きベクトル及び第2の目標動きベクトルに基づいて現在のブロックを符号化処理してよい、復号化側の場合、復号化側は、第1の目標動きベクトル及び第2の目標動きベクトルに基づいて現在のブロックを復号化処理してよい。
一例では、現在のブロックの各サブブロックに対して、サブブロックの第1の目標動きベクトルに基づいて、サブブロックに対応する第3の参照ブロックを確定し、サブブロックの第2の目標動きベクトルに基づいて、サブブロックに対応する第4の参照ブロックを確定し、第3の参照ブロックの第3の画素値及び第4の参照ブロックの第4の画素値に基づいて重み付けを行い、サブブロックの予測値を得て、各サブブロックの予測値に基づいて現在のブロックの予測値を確定する。
一例では、サブブロックの第1の目標動きベクトルに基づいて、サブブロックに対応する第3の参照ブロックを確定し、サブブロックの第2の目標動きベクトルに基づいて、サブブロックに対応する第4の参照ブロックを確定することは、以下の方式を含んでよい。
方式1は、サブブロックの第1の目標動きベクトルに基づいて、第1の参照フレームからサブブロックに対応する第5の参照ブロックを確定し、第5の参照ブロックにおける画素値を補間し、第3の参照ブロックを得る。及び、サブブロックの第2の目標動きベクトルに基づいて、第2の参照フレームからサブブロックに対応する第6の参照ブロックを確定し、第6の参照ブロックにおける画素値を補間し、第4の参照ブロックを得る。
方式2は、サブブロックの第1の目標動きベクトルに基づいて、第1の参照フレームからサブブロックに対応する第7の参照ブロックを確定し、第7の参照ブロックにおける画素値を利用して第8の参照ブロックを構築し、第8の参照ブロックにおける画素値を補間し、第3の参照ブロックを得て、サブブロックの第2の目標動きベクトルに基づいて、第2の参照フレームからサブブロックに対応する第9の参照ブロックを確定し、第9の参照ブロックにおける画素値を利用して第10の参照ブロックを構築し、第10の参照ブロックにおける画素値を補間し、第4の参照ブロックを得る。
一例では、第1の目標動きベクトル及び第2の目標動きベクトルに基づいて現在のブロックを符号化又は復号化した後、現在のブロックに対して第1の目標動きベクトル及び第2の目標動きベクトルを格納してよい。このように、当該第1の目標動きベクトルと当該第2の目標動きベクトルは現在のフレームのループフィルタリングに用いられ、当該第1の目標動きベクトルと当該第2の目標動きベクトルは後続のフレームの時間領域の参照に用いられ、及び/又は、当該第1の目標動きベクトルと当該第2の目標動きベクトルは現在のフレームの空間領域の参照に用いられる。
上記した技術案から分かるように、本願の実施例において、直接に第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルに基づいて現在のブロックを符号化又は復号化するのではなく、第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルに基づいて現在のブロックの第1の目標動きベクトル及び第2の目標動きベクトルを確定して、第1の目標動きベクトル及び第2の目標動きベクトルに基づいて現在のブロックを符号化又は復号化できるため、予測品質不良や、予測ミスなどの問題を解決しつつ、符号化性能及び符号化効率を向上させる。
実施例2では、図3が本願の実施例に係るコーデック方法のフローチャートであり、当該コーデック方法は符号化側に適用でき、当該コーデック方法は以下のステップを含んでよい。
ステップ301では、符号化側は、現在のブロックの特徴情報が特定の条件を満たすか否かを判断する。特定の条件を満たす場合、ステップ302を実行し、特定の条件を満たさない場合、本願に係る動きベクトル調整方式を用いる必要がないため、その処理方式を限定しない。
一例では、符号化側は、符号化済み情報に基づいて現在のブロックの特性情報が所定の条件を満たすか否かを判断してよい。現在のブロックの特徴情報が特定の条件を満たす場合、現在のブロックの動き情報が正確ではないことを示すため、動きベクトルリファインメントモードを有効にして、ステップ302を実行する。
現在のブロックの特徴情報が特定の条件を満たさない場合、現在のブロックの動き情報が正確であることを示すため、動きベクトルリファインメントモードを有効にせず、本願に係る動きベクトル調整方式を用いる必要がない。
一例では、現在のブロックの特徴情報は、現在のブロックに対応する動き情報予測モードと、現在のブロックに対応する動き情報属性と、現在のブロックのサイズ情報とのうちの1つ又は複数を含むが、これらに限定されない。
現在のブロックの特徴情報が特定の条件を満たすか否かを判断する方式については、後述の実施例を参照する。
ステップ302では、符号化側は、現在のブロックの第1のオリジナル動きベクトルに基づいて、第1の参照フレームから現在のブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて、第2の参照フレームから現在のブロックに対応する第2の参照ブロックを確定する。区別が容易になるために、第1の参照ブロックにおける各画素点の画素値を第1の画素値とし、第2の参照ブロックにおける各画素点の画素値を第2の画素値とする。
一例では、現在のブロックが双方向予測のブロックである場合、現在のブロックには、2つの参照フレームおよび2つのオリジナル動きベクトルを含む双方向動き情報が存在する。例えば、符号化側は従来の方式で双方向動き情報を取得してよく、この取得方式を限定しない。当該双方向動き情報は、第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む。
符号化側は、第1のオリジナル動きベクトルに基づいて、第1の参照フレームから現在のブロックに対応する第1の参照ブロックを確定してよく、第1の参照ブロックにおける各画素点の画素値は第1の画素値とされる。
符号化側は、第2のオリジナル動きベクトルに基づいて、第2の参照フレームから現在のブロックに対応する第2の参照ブロックを確定してよく、第2の参照ブロックにおける各画素点の画素値は第2の画素値とされる。
一例では、現在のブロックが所在する現在のフレームと第1の参照フレームとの距離、及び第2の参照フレームと現在のブロックが所在する現在のフレームとの距離は同じであってよい。例えば、第1の参照フレームは第1のフレームであり、現在のフレームは第5のフレームであり、第2の参照フレームは第9のフレームである。勿論、上記は一例に過ぎず、両者の距離は異なってもよい。
第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとは、鏡像対称の関係にあってよく、例えば、第1のオリジナル動きベクトルが(4,4)であり、第2のオリジナル動きベクトルが(-4,-4)であり、第1のオリジナル動きベクトルは(2.5,3.5)であり、第2のオリジナル動きベクトルは(-2.5,-3.5)である。勿論、上記は一例に過ぎず、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとは鏡像対称の関係になくてもよい。
第1の参照ブロック及び第2の参照ブロックを確定する方式については、後述の実施例を参照できる。
ステップ303では、現在のブロックの各サブブロックに対して、符号化側は第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルを調整し、当該サブブロックの第1の目標動きベクトルを得る。符号化側は第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第2のオリジナル動きベクトルを調整し、当該サブブロックの第2の目標動きベクトルを得る。
一例では、現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、符号化側は第1の画素値及び第2の画素値に基づいて、局所探索の方法により、第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルを微調整することで、より良い第1の目標動きベクトル及び第2の目標動きベクトルを取得して、第1の目標動きベクトル及び第2の目標動きベクトルを利用して歪みがより少ない予測値を生成する。
一例では、現在のブロックは少なくとも1つのサブブロックを含むことができ、1つのサブブロックのみを含む場合、そのサブブロックは現在のブロック自体である。当該サブブロックに対して、当該サブブロックは第1のオリジナル動きベクトル及び第2のオリジナル動きベクトルに対応し、調整を行った後、当該サブブロックは第1の目標動きベクトル及び第2の目標動きベクトルに対応する。
現在のブロックがサブブロックA及びサブブロックBを含む場合、サブブロックAは、第1のオリジナル動きベクトルA1及び第2のオリジナル動きベクトルA2に対応し、調整を行った後、サブブロックAは第1の目標動きベクトルA3及び第2の目標動きベクトルA4に対応する。サブブロックBは、第1のオリジナル動きベクトルB1及び第2のオリジナル動きベクトルB2に対応し、調整を行った後、サブブロックBは第1の目標動きベクトルB3及び第2の目標動きベクトルB4に対応する。
サブブロックAに対応する第1のオリジナル動きベクトルA1とサブブロックBに対応する第1のオリジナル動きベクトルB1とは、いずれも現在のブロックの第1のオリジナル動きベクトルであるように、同じであってよい。サブブロックAに対応する第2のオリジナル動きベクトルA2とサブブロックBに対応する第2のオリジナル動きベクトルB2とは、いずれも現在のブロックの第2のオリジナル動きベクトルであるように、同じであってよい。
各サブブロックの第1のオリジナル動きベクトルに対してそれぞれに調整を行うため、サブブロックAに対応する第1の目標動きベクトルA3とサブブロックBに対応する第1の目標動きベクトルB3とは、同じであっても、異なってもよい。各サブブロックの第2のオリジナル動きベクトルに対してそれぞれに調整を行うため、サブブロックAに対応する第2の目標動きベクトルA4とサブブロックBに対応する第2の目標動きベクトルB4は、同じであっても、異なってもよい。
オリジナル動きベクトルに対する調整方式は、後述の実施例を参照できるため、ここでの説明を省略する。
ステップ304では、符号化側は、第1の目標動きベクトル及び第2の目標動きベクトルに基づいて、現在のブロックの各サブブロックに対して動き補償を行う。例えば、現在のブロックがサブブロックAとサブブロックBとを含む場合、サブブロックAに対して、サブブロックAの第1の目標動きベクトル及び第2の目標動きベクトルを用いて動き補償を行い、サブブロックBに対して、サブブロックBの第1の目標動きベクトル及び第2目標動きベクトルを用いて動き補償を行ってよい。
動き補償の方式については、後述の実施例を参照できるため、ここでの説明を省略する。
ステップ305では、符号化側は、現在のブロックの各サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルを保存し、第1の目標動きベクトル及び第2の目標動きベクトルは後続のブロックの符号化の参照に用いられる。
符号化の参照の実現方式については、後述の実施例を参照できるため、ここでの説明を省略する。
実施例3では、図4が本願の実施例に係るコーデック方法のフローチャートであり、当該コーデック方法は復号化側に適用でき、当該コーデック方法は以下のステップを含んでよい。
ステップ401では、復号化側は、現在のブロックの特徴情報が特定の条件を満たすか否かを判断する。特定の条件を満たす場合、ステップ402を実行し、特定の条件を満たさない場合、本願が提供する動きベクトル調整方式を用いる必要がなく、その処理方式を限定しない。
一例では、復号化側は、符号化側から伝送された符号化ビットストリームを受信し、復号化ずみ情報に基づいて現在のブロックの特性情報が特定条件を満たすか否かを判断できる。現在のブロックの特徴情報が特定の条件を満たす場合、現在のブロックの動き情報が正確ではないことを示すため、動きベクトルリファインメントモードを有効にして、ステップ402を実行する。現在のブロックの特徴情報が特定の条件を満たさない場合、現在のブロックの動き情報が正確であることを示すため、動きベクトルリファインメントモードを有効にせず、本願に係る動きベクトル調整方式を用いる必要がない。
ステップ402では、復号化側は、現在のブロックの第1のオリジナル動きベクトルに基づいて、第1の参照フレームから現在のブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて、第2の参照フレームから現在のブロックに対応する第2の参照ブロックを確定する。区別が容易になるために、第1の参照ブロックにおける各画素点の画素値を第1の画素値とし、第2の参照ブロックにおける各画素点の画素値を第2の画素値とする。
ステップ403では、現在のブロックの各サブブロックに対して、復号化側は、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルを調整し、当該サブブロックの第1の目標動きベクトルを得る。復号化側は、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第2のオリジナル動きベクトルを調整し、当該サブブロックの第2の目標動きベクトルを得る。
ステップ404では、現在のブロックの各サブブロックに対して、復号化側は、当該サブブロックの第1の目標動きベクトル及び当該サブブロックの第2の目標動きベクトルに基づいて、当該サブブロックに対して動き補償を行う。
ステップ405では、復号化側は、現在のブロックの各サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルを保存し、第1の目標動きベクトル及び第2の目標動きベクトルは後続のブロックの復号化の参照に用いられる。
実施例4では、ステップ301及びステップ401は、現在のブロックの特徴情報が特定の条件を満たすか否かを判断することに関する。本実施例において、特徴情報が以下の全ての条件を満たす場合、現在のブロックの特徴情報が特定の条件を満たすことを確定し、動きベクトルリファインメントモードを有効にする。満たさない場合、動きベクトルリファインメントモードを有効にしない。
現在のブロックに対応する動き情報属性は、現在のブロックは周囲ブロックの動き情報を直接に利用し、動き情報の差分値を符号化しないことを含む。現在のブロックに対応する動き情報属性は、現在のブロックの各サブブロックの動き情報が同じであり、即ちサブブロック動き情報予測モードは不要であることを含む。現在のブロックに対応する動き情報属性は、現在のブロックの動き情報は2つの異なる方向の動き情報を含むことを含む。現在のブロックのサイズ情報は、現在のブロックのサイズが限定範囲内であることを含む。このサイズが限定範囲内であることについては、後続の実施例で説明する。
実施例5では、ステップ301及びステップ401は、現在のブロックの特徴情報が特定の条件を満たすか否かを判断することに関する。本実施例において、特徴情報が以下の全ての条件を満たす場合、現在のブロックの特徴情報が特定の条件を満たすことを確定し、動きベクトルリファインメントモードを有効にする。満たさない場合、動きベクトルリファインメントモードを有効にしない。
現在のブロックに対応する動き情報予測モードは、Normal Mergeモード(即ち、通常マージモード)又はCIIPモード(即ち、インター予測子とイントラ予測子とを統合して新たな予測子を生成するためのマージモード)を使用する。又は、現在のブロックに対応する動き情報予測モードは、MMVDモード(即ち、動き情報の差分値を符号化するためのマージモード)、SB Mergeモード(即ち、サブブロック動き情報を使用するマージモード)、又はTPMモード(即ち、3角予測のためのマージモード)を使用しない。
現在のブロックに対応する動き情報属性は、現在のブロックの動き情報は2つの異なる方向の動き情報を含み、2つの異なる方向の動き情報に対応する2つの参照フレームが、現在のフレームとの距離は同じであることを含む。現在のブロックのサイズ情報は、現在のブロックのサイズが限定範囲内であることを含む。
なお、マージモード(即ち、Mergeモード)は、通常マージモード(Normal Mergeモードと呼ばれる)、3角予測のためのマージモード(TPMモードと呼ばれる)、動き情報の差分値を符号化するためのマージモード(MMVDモードと呼ばれる)、サブブロック動き情報を使用するマージモード(SB Mergeモードと呼ばれる)、及び、インター予測子とイントラ予測子を統合して新たな予測子を生成するためのマージモード(CIIPモードと呼ばれる)を含むが、これらの類型のマージモードに限定されない。
一例では、Normal Mergeモードは、残差を符号化しない通常マージモード(即ち、skipモード)と、残差を符号化する通常マージモードとを含む。MMVDモードは、残差を符号化しないMMVDモードを含む。
実施例6では、ステップ301及びステップ401は、現在のブロックの特徴情報が特定の条件を満たすか否かを判断することに関する。本実施例において、特徴情報が以下の全ての条件を満たす場合、現在のブロックの特徴情報が特定の条件を満たすことを確定し、動きベクトルリファインメントモードを有効にする。満たさない場合、動きベクトルリファインメントモードを有効にしない。
現在のブロックに対応する動き情報予測モードは、Normal Mergeモード(即ち、通常マージモード)、CIIPモード(即ち、インター予測子とイントラ予測子とを統合して新たな予測子を生成するためのマージモード)、又はTPMモード(即ち、3角予測のためのマージモード)を用いる。又は、現在のブロックに対応する動き情報予測モードは、MMVDモード(即ち、動き情報の差分値を符号化するためのマージモード)又はSB Mergeモード(即ち、サブブロック動き情報を使用するマージモード)を用いない。
現在のブロックに対応する動き情報属性は、現在のブロックの動き情報は2つの異なる方向の動き情報を含み、2つの異なる方向の動き情報に対応する2つの参照フレームが、現在のフレームとの距離は同じであることを含む。現在のブロックのサイズ情報は、現在のブロックのサイズが限定範囲内であることを含む。
実施例7では、ステップ301及びステップ401は、現在のブロックの特徴情報が特定の条件を満たすか否かを判断することに関する。本実施例において、特徴情報が以下の全ての条件を満たす場合、現在のブロックの特徴情報が特定の条件を満たすことを確定し、動きベクトルリファインメントモードを有効にする。満たさない場合、動きベクトルリファインメントモードを有効にしない。
現在のブロックに対応する動き情報予測モードは、Normal Mergeモード(即ち、通常マージモード)、CIIPモード(即ち、インター予測子とイントラ予測子とを統合して新たな予測子を生成するためのマージモード)、TPMモード(即ち、3角予測のためのマージモード)を用いる。又は、現在のブロックに対応する動き情報予測モードは、MMVDモード(即ち、動き情報の差分値を符号化するためのマージモード)又はSB Mergeモード(即ち、サブブロック動き情報を使用するマージモード)を用いない。
現在のブロックに対応する動き情報属性は、現在のブロックの動き情報は2つの異なる方向の動き情報を含み、2つの異なる方向の動き情報に対応する2つの参照フレームが、現在のフレームとの距離は同じであることを含む。現在のブロックのサイズ情報は、現在のブロックのサイズが限定範囲内であることを含む。
実施例8では、ステップ301及びステップ401は、現在のブロックの特徴情報が特定の条件を満たすか否かを判断することに関する。本実施例において、特徴情報が以下の全ての条件を満たす場合、現在のブロックの特徴情報が特定の条件を満たすことを確定し、動きベクトルリファインメントモードを有効にする。満たさない場合、動きベクトルリファインメントモードを有効にしない。
現在のブロックに対応する動き情報予測モードは、Normal Mergeモード又はCIIPモードを用い、現在のブロックに対応する動き情報予測モードは、MMVDモード、SB Mergeモード、又はTPMモードを用いない。又は、現在のブロックに対応する動き情報予測モードはNormal Mergeモード、CIIPモード、又はTPMモードを用い、現在のブロックに対応する動き情報予測モードは、MMVDモード、又はSB Mergeモードを用いない。又は、現在のブロックに対応する動き情報予測モードはNormal Mergeモード、CIIPモード、TPMモード、又はMMVDモードを用い、現在のブロックに対応する動き情報予測モードはSB Mergeモードを用いない。
現在のブロックに対応する動き情報属性は、現在のブロックの動き情報は2つの異なる方向の動き情報を含み、2つの異なる方向の動き情報に対応する2つの参照フレームが、現在のフレームとの距離が同じであることを制限する必要がないこと、即ち、この制限条件を除去することを含む。現在のブロックのサイズ情報は、現在のブロックのサイズが限定範囲内であることを含む。
実施例9では、上記実施例4~実施例8における「現在のブロックのサイズが限定範囲内である」については、現在のブロックのサイズが以下の条件を満たす場合、現在のブロックのサイズが限定範囲内であることを確定する。
現在のブロックの幅は[第1の閾値,第2の閾値]の範囲内であり、第1の閾値は4であってよく、第2の閾値は128であってよい。現在のブロックの高さは[第3の閾値,第4の閾値]の範囲内であり、第3の閾値は8であってよく、第4の閾値は128であってよい。例示的に、第1の閾値、第2の閾値、第3の閾値、第4の閾値は、いずれも2のn乗であってよく、nは1以上の整数である。現在のブロックの面積は[第5の閾値,第6の閾値]の範囲内であり、第5の閾値は64であってよく、第6の閾値は128*128=16384であってよい。例示的に、第5の閾値、第6の閾値は、いずれも4のm乗であってよく、mは1以上の整数である。上記の例において、[a,b]は、a以上b以下を表すことができる。
実施例10では、ステップ302及びステップ402は、第1のオリジナル動きベクトルに基づいて、第1の参照フレームから現在のブロックに対応する第1の参照ブロックを確定し、第1の参照ブロックにおける各画素点の画素値は第1の画素値とされ、第2のオリジナル動きベクトルに基づいて、第2の参照フレームから現在のブロックに対応する第2の参照ブロックを確定し、第2の参照ブロックにおける各画素点の画素値は第2の画素値とされる。これについては以下に説明する。
第1の参照ブロックにおける各画素点の第1の画素値は、第1の参照ブロックにおける隣接する画素点の画素値を補間することにより得られ、又は、第1の参照ブロックにおける隣接する画素点の画素値をコピーすることにより得られるものである。第2の参照ブロックにおける各画素点の第2の画素値は、第2の参照ブロックにおける隣接する画素点の画素値を補間することにより得られ、又は、第2の参照ブロックにおける隣接する画素点の画素値をコピーすることにより得られるものである。第1の参照ブロックのサイズは、第2の参照ブロックのサイズと同じであり、第1の参照ブロック/第2の参照ブロックの幅値は、現在のブロックの幅値及び探索範囲に基づいて確定され、第1の参照ブロック/第2の参照ブロックの高さ値は、現在のブロックの高さ値及び探索範囲に基づいて確定される。
図5に示すように、仮に現在のブロックの幅がWであり、高さがHであると、第1のオリジナル動きベクトルをMV0とし、第2のオリジナル動きベクトルをMV1とする。第1のオリジナル動きベクトルMV0の第1の参照フレームにおける対応位置から、面積が(W+FS-1)*(H+FS-1)の整数画素ブロックを得て、この整数画素ブロックを整数画素ブロックAとする。第2のオリジナル動きベクトルMV1の第2の参照フレームにおける対応位置から、面積が(W+FS-1)*(H+FS-1)である整数画素ブロックを得て、この整数画素ブロックを整数画素ブロックBとする。
一例では、面積が(W+FS-1)*(H+FS-1)である整数画素ブロックAに基づいて、バイリニア補間でサイズが(W+2*SR)*(H+2*SR)である初期参照画素ブロックを取得してよく、この初期参照画素ブロックを第1の参照ブロックとしてよい。面積が(W+FS-1)*(H+FS-1)である整数画素ブロックBに基づいて、バイリニア補間でサイズが(W+2*SR)*(H+2*SR)である初期参照画素ブロックを取得してよく、この初期参照画素ブロックを第2の参照ブロックとしてよい。
別の例では、面積が(W+FS-1)*(H+FS-1)の整数画素ブロックAに基づいて、直接にコピーする(補間不要)ことで、サイズが(W+2*SR)*(H+2*SR)の初期参照画素ブロックを取得し、この初期参照画素ブロックを第1の参照ブロックとする。面積が(W+FS-1)*(H+FS-1)である整数画素ブロックBに基づいて、直接にコピーすることで、サイズが(W+2*SR)*(H+2*SR)である初期参照画素ブロックを取得でき、この初期参照画素ブロックを第2の参照ブロックとする。
例示的に、輝度成分のみ(複雑度を低減するために、以下、輝度成分のみを使用してコスト値を計算する)に対して、面積が(W+FS-1)*(H+FS-1)である整数画素ブロック(例えば、整数画素ブロックA及び整数画素ブロックB)に基づいて、サイズが(W+2*SR)*(H+2*SR)である初期参照画素ブロック、即ち第1の参照ブロック(例えば、Pred_Inter0)及び第2の参照ブロック(例えば、Pred_Inter1)を取得してよい。
一例では、FSは補間フィルタのタップ数であってよく、例えば8などであってよい。
バイリニア補間で第1の参照ブロック/第2の参照ブロックを取得することとは、第1の参照ブロック/第2の参照ブロックにおける各画素点の画素値は、第1の参照ブロック/第2の参照ブロックにおける隣接する画素点の画素値を補間することで取得されるものであることを意味するが、これに対しては限定しない。コピーすることで第1の参照ブロック/第2の参照ブロックを取得することとは、第1の参照ブロック/第2の参照ブロックにおける各画素点の画素値は、第1の参照ブロック/第2の参照ブロックにおける隣接する画素点の画素値をコピーすることで取得されるものであることを意味するが、これに対して限定しない。
上記実施例を参照し、第1の参照ブロックの面積は(W+2*SR)*(H+2*SR)であり、第2の参照ブロックの面積は(W+2*SR)*(H+2*SR)であり、即ち、第1の参照ブロック/第2の参照ブロックの幅値はW+2*SRであり、第1の参照ブロック/第2の参照ブロックの高さ値はH+2*SRである。Wは現在のブロックの幅であり、Hは現在のブロックの高さであり、SRは探索範囲であり、即ち、後述の実施例の反復回数である。即ち、SRは、目標動きベクトルとオリジナル動きベクトルとの最大水平/垂直成分の補間であり、例えばSRは2などであってよい。
第1の参照ブロック及び第2の参照ブロックについては、後続処理における動きベクトル調整に用いられる。
実施例11では、ステップ303及びステップ403は、現在のブロックの各サブブロックに対して、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを得て、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを得る。
1つのサブブロック(現在のブロックにおけるサイズがdx*dyである各サブブロックのような、例えばサイズが16*16であるサブブロック、又はそれよりの小さい1つの整数ブロック)に対する処理を例として、オリジナル動きベクトルの調整処理を説明する。
ステップa1では、第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心動きベクトルとして確定する。
例えば、第1のオリジナル動きベクトルを(4,4)、第2のオリジナル動きベクトルを(-4,-4)と仮定する場合、第1のオリジナル動きベクトル(4,4)又は第2のオリジナル動きベクトル(-4,-4)を中心動きベクトルとして確定できる。説明の便宜上、第1のオリジナル動きベクトル(4,4)を中心動きベクトルとして確定することを例として説明する。第2のオリジナル動きベクトル(-4,-4)を中心動きベクトルとして確定する流れも同様である。
ステップa2では、中心動きベクトルに対応するエッジ動きベクトルを確定する。
例えば、中心動きベクトル(x,y)を異なる方向にSでシフトし、異なる方向のエッジ動きベクトル(x,y+S)と、エッジ動きベクトル(x,y-S)と、エッジ動きベクトル(x+S,y)と、エッジ動きベクトル(x-S,y)と、エッジ動きベクトル(x+right,y+down)とを得ることができる。rightはS又は-Sであってよく、downはS又は-Sであってよく、right及びdownの確定方式は、後続の実施例を参照する。
図6に示すように、中心動きベクトル(x,y)を中心とし、即ち中心動きベクトルは(0,0)である。Sが1であり、right及びdownがいずれも1であることを例として、中心動きベクトル(0,0)に対応するエッジ動きベクトルは、エッジ動きベクトル(0,1)と、エッジ動きベクトル(0,-1)と、エッジ動きベクトル(1,0)と、エッジ動きベクトル(-1,0)と、エッジ動きベクトル(1,1)とを含む。
ステップa3では、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値と、各エッジ動きベクトルに対応する第2のコスト値とを取得する。
例えば、中心動きベクトル(0,0)に対応するサブ参照ブロックA1は、第1の参照ブロックからコピーによって取得されるものであり、第1の参照ブロックにおける中心動きベクトル(0,0)のサブ参照ブロックである。サブ参照ブロックA1のサイズは、現在のブロックのサイズであり、サブ参照ブロックA1は、第1の参照ブロックの中で最も中心に位置するW*Hのブロックである。
中心動きベクトル(0,0)に対応するサブ参照ブロックB1は、第2の参照ブロックからコピーによって取得されるものであり、第2の参照ブロックにおける中心動きベクトル(0,0)のサブ参照ブロックである。サブ参照ブロックB1のサイズは、現在のブロックのサイズであり、サブ参照ブロックB1は、第2の参照ブロックにおける最も中央に位置するW*Hのブロックである。
そして、サブ参照ブロックA1の第1の画素値及びサブ参照ブロックB1の第2の画素値を利用し、中心動きベクトル(0、0)に対応するコスト値1を取得し、コスト値の確定方式は後続の実施例を参照する。
エッジ動きベクトル(0,1)に対応するサブ参照ブロックA2は、第1の参照ブロックからコピーによって取得されるものであり、第1の参照ブロックにおけるエッジ動きベクトル(0,1)のサブ参照ブロックである。サブ参照ブロックA2のサイズは、現在のブロックのサイズであり、サブ参照ブロックA2は、第1の参照ブロックにおけるW*Hのブロックである。
エッジ動きベクトル(0,1)の対称動きベクトル(0,-1)に対応するサブ参照ブロックB2は、第2の参照ブロックからコピーによって取得されるものであり、第2の参照ブロックにおける対称動きベクトル(0,-1)のサブ参照ブロックである。サブ参照ブロックB2のサイズは、現在のブロックのサイズであり、第2の参照ブロックにおけるW*Hのブロックである。
そして、サブ参照ブロックA2の第1の画素値及びサブ参照ブロックB2の第2の画素値を利用し、エッジ動きベクトル(0,1)に対応するコスト値2を取得し、コスト値の確定方式は後続の実施例を参照する。
エッジ動きベクトル(0,1)に対応するコスト値2の確定方式に基づいて、エッジ動きベクトル(0,-1)に対応するコスト値3と、エッジ動きベクトル(1,0)に対応するコスト値4と、エッジ動きベクトル(-1,0)に対応するコスト値5と、エッジ動きベクトル(1,1)に対応するコスト値6とを確定できる。
ステップa4では、第1のコスト値及び第2のコスト値に基づいて、最適動きベクトルとして、中心動きベクトル及びエッジ動きベクトルから1つの動きベクトルを選択する。例えば、コスト値が最も小さい動きベクトルを最適動きベクトルとしてよい。例えば、仮に、エッジ動きベクトル(0,1)に対応するコスト値2が最小である場合、コスト値2に対応するエッジ動きベクトル(0,1)を最適動きベクトルとしてよい。
ステップa5では、終了条件を満たすか否かを判断する。終了条件を満たさない場合、最適動きベクトルを中心動きベクトルとして確定し、ステップa2に戻る。終了条件を満たす場合、ステップa6を実行してよい。
一例では、反復回数/探索範囲が閾値に達すると終了条件が満たされ、反復回数/探索範囲が閾値に達しないと終了条件が満たされない。例えば、仮に、SRが2である、即ち閾値が2である場合、2回の反復が許容される。反復回数/探索範囲が2回に達した、即ちステップa2~ステップa4が2回実行された場合、終了条件は満たされる。それ以外の場合、終了条件は満たされない。
別の例では、中心動きベクトルとエッジ動きベクトルから1つの動きベクトルを選択して最適動きベクトルとした後、最適動きベクトルとして、中心動きベクトルが選択された場合、終了条件が満たされる。
ステップa6では、最適動きベクトルに基づいて第1の整数画素動きベクトル調整値(第1のオリジナル動きベクトルを調整することに用いられる)及び第2の整数画素動きベクトル調整値(第2のオリジナル動きベクトルを調整することに用いられる)を確定する。
一例では、最適動きベクトルと第1のオリジナル動きベクトルとに基づいて第1の整数画素動きベクトル調整値を確定し、第1の整数画素動きベクトル調整値に基づいて第2の整数画素動きベクトル調整値を確定し、第2の整数画素動きベクトル調整値と第1の整数画素動きベクトル調整値とは対称する。
例えば、1回目の反復では、最適動きベクトルはエッジ動きベクトル(0,1)であり、エッジ動きベクトル(0,1)を中心として2回目の反復を行い、2回目の反復では、最適動きベクトルはエッジ動きベクトル(0,1)である。仮に、これで反復処理が完了した場合、第1の整数画素動きベクトル調整値は(0,2)であり、即ちエッジ動きベクトル(0,1)とエッジ動きベクトル(0,1)との和である。
これにより、仮に、第1のオリジナル動きベクトルが(4,4)である場合、1回目の反復では、最適動きベクトルがエッジ動きベクトル(0,1)であり、即ち、最適動きベクトルが最適動きベクトル(4,5)に対応できる。エッジ動きベクトル(0,1)を中心として2回目の反復を行い、2回目の反復では、最適動きベクトルがエッジ動きベクトル(0,1)であり、即ち最適動きベクトルが最適動きベクトル(4,6)に対応できる。
以上をまとめると、最適動きベクトル(4,6)及び第1のオリジナル動きベクトル(4,4)に基づいて第1の整数画素動きベクトル調整値を確定し、第1の整数画素動きベクトル調整値は最適動きベクトル(4,6)と第1のオリジナル動きベクトル(4,4)との差であり、即ち第1の整数画素動きベクトル調整値は(0,2)である。
そして、第1の整数画素動きベクトル調整値(0,2)に基づいて第2の整数画素動きベクトル調整値を確定し、第2の整数画素動きベクトル調整値は(0,-2)であってよく、即ち(0,2)の反数であってよい。
ステップa7では、最適動きベクトルに基づいて第1のサブ画素動きベクトル調整値(第1のオリジナル動きベクトルを調整することに用いられる)及び第2のサブ画素動きベクトル調整値(第2のオリジナル動きベクトルを調整することに用いられる)を確定する。
一例では、最適動きベクトルに対応するコスト値、最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定し、そして、前記第1のサブ画素動きベクトル調整値に基づいて第2のサブ画素動きベクトル調整値を確定する。
例えば、x=N*(E(-1,0)-E(1,0))/(E(-1,0)+E(1,0)-2*E(0,0))、y=N*(E(0,-1)-E(0,1))/(E(0,-1)+E(0,1)-2*E(0,0))であり、1/2、1/4、1/8及び1/16の動きベクトル画素精度に対して、N=1、2、4及び8である。そして、(x,y)にdeltaMvを代入し、SPMV=deltaMv/2Nとし、現在の動きベクトル画素精度が1/16である場合、SPMVは(x/16,y/16)となる。
上記の式において、SPMVは第1のサブ画素動きベクトル調整値であり、Nは動きベクトル画素精度に関連し、例えば、動きベクトル画素精度が1/2でNが1であり、動きベクトル画素精度が1/4でNが2であり、動きベクトル画素精度が1/8でNが4であり、動きベクトル画素精度が1/16でNが8である。
上記の式において、E(0,0)は最適動きベクトルのコスト値を示す。E(-1,0)は、最適動きベクトルを中心として、最適動きベクトル(0,0)のエッジ動きベクトル(-1,0)のコスト値である。E(1,0)は、最適動きベクトルを中心として、最適動きベクトル(0,0)のエッジ動きベクトル(1,0)のコスト値である。E(0,-1)は、最適動きベクトルを中心として、最適動きベクトル(0,0)のエッジ動きベクトル(0,-1)のコスト値である。E(0,1)は、最適動きベクトルを中心として、最適動きベクトル(0,0)のエッジ動きベクトル(0,1)のコスト値である。各動きベクトルのコスト値に対して、その確定方式は上記実施例を参照できるため、ここでの説明を省略する。
上記方式で第1のサブ画素動きベクトル調整値を確定した後、第1のサブ画素動きベクトル調整値に基づいて第2のサブ画素動きベクトル調整値を確定できる。第2のサブ画素動きベクトル調整値は第1のサブ画素動きベクトル調整値の反数である。例えば、第1のサブ画素動きベクトル調整値が(1,0)である場合、第2のサブ画素動きベクトル調整値は(-1,0)であり、即ち(1,0)の反数である。
ステップa8では、第1の整数画素動きベクトル調整値及び/又は第1のサブ画素動きベクトル調整値に基づいて、第1のオリジナル動きベクトルを調整し、第1の目標動きベクトルを得る。
例えば、第1の目標動きベクトル=第1のオリジナル動きベクトル+第1の整数画素動きベクトル調整値+第1のサブ画素動きベクトル調整値である。勿論、上記は例示に過ぎず、これに対して限定しない。
ステップa9では、第2の整数画素動きベクトル調整値及び/又は第2のサブ画素動きベクトル調整値に基づいて、第2のオリジナル動きベクトルを調整し、第2の目標動きベクトルを得る。
例えば、第2の目標動きベクトル=第2のオリジナル動きベクトル+第2の整数画素動きベクトル調整値+第2のサブ画素動きベクトル調整値である。勿論、上記は例示に過ぎず、これに対して限定しない。
実施例12では、ステップ303及びステップ403は、現在のブロックの各サブブロックに対して、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを得て、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを得る。
1つのサブブロック(現在のブロックにおけるサイズがdx*dyである各サブブロックのような、例えばサイズが16*16であるサブブロック、又はそれより小さいブロック)の処理を例として、オリジナル動きベクトルの調整処理を説明する。第1のオリジナル動きベクトルをOrg_MV0とし、第2のオリジナル動きベクトルをOrg_MV1とし、第1のオリジナル動きベクトルOrg_MV0を調整した後、得られた第1の目標動きベクトルをRefined_MV0とし、第2のオリジナル動きベクトルOrg_MV1を調整した後、得られた第2の目標動きベクトルをRefined_MV1とする。
ステップb1では、SR回の反復を行い、最適な整数画素MV点の整数画素オフセットを取得し、IntegerDeltaMVとし。IntegerDeltaMVは上記実施例における第1の整数画素動きベクトル調整値である。例えば、まずIntegerDeltaMVを(0,0)に初期化し、毎回の反復で以下の処理を実行する。
ステップb11では、deltaMVを(0,0)に設定する。初回の反復の場合、第1の参照ブロックにおける第1のオリジナル動きベクトルの参照画素に基づいて、予測値ブロックA1(即ち、第1の参照ブロックの最も中心にあるW*Hのブロック)をコピーによって取得し、第2の参照ブロックにおける第2のオリジナル動きベクトルの参照画素に基づいて、予測値ブロックB1(即ち、第2の参照ブロックの最も中心にあるW*Hのブロック)をコピーによって取得する。予測値ブロックA1及び予測値ブロックB1に基づいて、初期コスト値cost(初期コスト値は予測値ブロックA1及び予測値ブロックB1に基づくSAD(差分絶対値和、sum of absolute distortion)であり、確定方式は後続の実施例を参照する)を取得する。当該初期コスト値costが4*dx*dy/2より小さい場合、dx及びdyは現在のサブブロックの幅及び高さであり、後続の探索処理を直接にスキップし、ステップb2を実行し、notZeroCostをfalseに設定する。
ステップb12では、図6に示すように、上記初期点を中心として、{Mv(0,1),Mv(0,-1),Mv(1,0),Mv(-1,0),Mv(right,down)}の5つのオフセットMV(これら5つのオフセットMVはいずれもMVOffsetとされる)を順次得て、これら5つのオフセットMVのコスト値の計算及び比較処理を行う。
例えば、あるMVOffset(例えば、Mv(0,1)など)に基づいて、第1の参照ブロックと第2の参照ブロックにおいて、このMVOffsetにより2つの予測値ブロック(例えば、第1の参照ブロックにおいて中心位置のオフセットがMVOffsetであるW*Hのブロック、第2の参照ブロックにおいて中心位置のオフセットが-MVOffset(MVOffsetとは逆)であるW*Hのブロック)を取得し、2つの予測値ブロックのダウンサンプリングSADを計算してMVOffsetのコスト値とする。
そして、最小コスト値を有するMVOffsetを保留し、最小コスト値を有するMVOffsetをdeltaMVの値に更新し、最小コスト値を有するMVOffsetを次回の反復の新しい中心オフセット点とする。
deltaMVに基づいてIntegerDeltaMVの値を更新し、更新後のIntegerDeltaMV=更新前のIntegerDeltaMV+deltaMVであり、即ち現在のIntegerDeltaMVの上にdeltaMVを加える。
ステップb13では、反復を行った後、最適MVが依然として初期MV(即ちMVOffsetではない)であるか又は最小コスト値が0である場合、次回の反復探索処理を行わず、ステップb2を実行し、notZeroCostをfalseに設定する。それ以外の場合、反復回数がSRに達すると、ステップb2を実行し、反復回数がSRに達しないと、最適MVを中心として、次回の反復探索処理を行い、即ちステップb11に戻る。
反復探索処理が終了した後、IntegerDeltaMVの値、即ちIntegerDeltaMVの最終値、即ち第1の整数画素の動きベクトル調整値が得られ、以下、IntegerDeltaMVとされる。
ステップb2では、ステップb1の最適整数画素MV点を中心として、最適サブ画素オフセットMVを取得し、SPMVとする。SPMVは、上記実施例における第1のサブ画素動きベクトル調整値である。例えば、SPMVを(0,0)に初期化してから、以下の処理を実行してよい。
ステップb21では、notZeroCostがfalseでなく、且つdeltaMVが(0、0)である場合のみ、後続処理を行う(即ち、SPMVを取得する必要がある)。それ以外の場合、IntegerDeltaMV及びSPMVを利用してオリジナル動きベクトルを調整するのではなく、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する。
ステップb22では、E(x,y)はステップb1によって得られた最適MV点オフセット(x,y)のMV対応コスト値(ステップb1で計算されたコスト値)を表す。中心及び上下左右の5つの点のE(x,y)に基づいて、E(x,y)が最小である点のオフセット(x,y)を得ることができる。ここで、x=N*(E(-1,0)-E(1,0))/(E(-1,0)+E(1,0)-2*E(0,0))であり、y=N*(E(0,-1)-E(0,1))/(E(0,-1)+E(0,1)-2*E(0,0))である。
一例では、1/2、1/4、1/8及び1/16の動きベクトル画素精度に対して、N=1、2、4及び8である。そして、(x,y)にdeltaMvを代入でき、SPMV=deltaMv/2Nであり、現在の動きベクトル画素精度が1/16であると、SPMVは(x/16,y/16)である。
E(-1,0)=E(0,0)である場合、水平に左へ半画素分シフトする(deltaMv[0]=-N)。
E(1,0)=E(0,0)である場合、水平に右へ半画素分シフトする(deltaMv[0]=N)。
E(0,-1)=E(0,0)である場合、垂直に上へ半画素分シフトする(deltaMv[1]=-N)。
E(0,1)=E(0,0)である場合、垂直に下へ半画素分シフトする(deltaMv[1]=N)。
以上の処理により、SPMVの値、即ち第1のサブ画素動きベクトル調整値を得ることができる。
ステップb3では、ステップb1の整数画素オフセットIntegerDeltaMV及びステップb2のサブ画素オフセットSPMVに基づいて、最適オフセットMVを取得する。この最適オフセットMVをBestMVoffsetとしてよい。なお、BestMVoffset=IntegerDeltaMV+SPMVである。
BestMVoffsetに基づいて2つの方向の目標動きベクトルを取得できる。ここで、Refined_MV0=Org_MV0+BestMVoffset、Refined_MV1=Org_MV1-BestMVoffsetである。
明らかに、BestMVoffset=IntegerDeltaMV+SPMVであり、即ち、BestMVoffsetは第1の整数画素の動きベクトル調整値と第1のサブ画素の動きベクトル調整値との和である。また、-IntegerDeltaMVは、IntegerDeltaMVの反数、即ち第2の整数画素動きベクトル調整値であり、-SPMVは、SPMVの反数、即ち第2のサブ画素動きベクトル調整値である。そのため、-BestMVoffset=(-IntegerDeltaMV)+(-SPMV)であり、即ち、-BestMVoffsetは第2の整数画素動きベクトル調整値と第2のサブ画素動きベクトル調整値との和である。
実施例13では、ステップ303及びステップ403に対して、第1のオリジナル動きベクトルOrg_MV0及び第2のオリジナル動きベクトルOrg_MV1を第1の目標動きベクトルRefined_MV0及び第2の目標動きベクトルRefined_MV1に調整するため実現方式は、実施例12と類似するが、異なる点は以下のとおりである。
ステップb11における「当該初期コスト値costが4*dx*dy/2より小さい場合、後続の探索処理を直接にスキップする」ことを取り除き、即ち、初期コスト値costが4*dx*dy/2より小さい場合、「後続の探索処理を直接にスキップする」ことなく、後続の探索処理を継続し、即ちステップb12を実行する必要がある。
実施例14では、ステップ303及びステップ403に対して、第1のオリジナル動きベクトルOrg_MV0及び第2のオリジナル動きベクトルOrg_MV1を第1の目標動きベクトルRefined_MV0及び第2の目標動きベクトルRefined_MV1に調整するために、実現方式は実施例12と類似するが、異なる点は以下のとおりである。
ステップb11における「当該初期コスト値costが4*dx*dy/2より小さい場合、後続の探索処理を直接にスキップする」ことを取り除き、即ち、初期コスト値costが4*dx*dy/2より小さい場合、「後続の探索処理を直接にスキップする」ことなく、後続の探索処理を継続し、即ちステップb12を実行する必要がある。
ステップb13における「最適MVが依然として初期MV(即ちMVOffsetではない)であるか又は最小コスト値が0である場合、次回の反復探索処理を行わない」ことを取り除き、即ち、最適MVが依然として初期MVであり、又は最小コスト値が0であっても、次回の反復探索処理を行うことができる。
実施例15では、ステップ303及びステップ403に対して、第1のオリジナル動きベクトルOrg_MV0及び第2のオリジナル動きベクトルOrg_MV1を第1の目標動きベクトルRefined_MV0及び第2の目標動きベクトルRefined_MV1に調整するために、実現方式は実施例12と類似するが、異なる点は以下のとおりである。
「notZeroCost」に関連する処理を取り除き、即ち、ステップb11およびb13は、notZeroCostの値の設定及び保存がされない。ステップb21では、サブ画素オフセット計算処理(即ち、ステップb22)は、notZeroCostがfalseではなく、かつ、deltaMVが(0、0)である場合に限られず、deltaMVが(0、0)である場合も行うことができる。
実施例16では、ステップ303及びステップ403に対して、第1のオリジナル動きベクトルOrg_MV0及び第2のオリジナル動きベクトルOrg_MV1を第1の目標動きベクトルRefined_MV0及び第2の目標動きベクトルRefined_MV1に調整するために、実現方式は実施例12と類似するが、異なる点は以下のとおりである。
ステップb21における「notZeroCostがfalseではなく、且つ、deltaMVが(0、0)である場合のみ、後続処理を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する」を、「notZeroCostがfalseでなく、且つ、現在の最適整数画素の上下左右に1つの整数画素だけ離れた4つの点のコスト値が既にステップb1で計算によって取得された場合のみ、後続処理を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する」に変更する。
一例では、「後続処理」は、ステップb22におけるサブ画素オフセット計算処理を指す。
一例では、ステップb22におけるサブ画素オフセット計算処理は、最適整数画素の上下左右に1整数画素だけ離れた4つの点のコスト値を使用する必要があるので、ステップb1で既に「最適整数画素の上下左右に1整数画素だけ離れた4つの点のコスト値」を計算して得ることは必要条件である。
実施例17では、ステップ303及びステップ403に対して、第1のオリジナル動きベクトルOrg_MV0及び第2のオリジナル動きベクトルOrg_MV1を第1の目標動きベクトルRefined_MV0及び第2の目標動きベクトルRefined_MV1に調整するために、実現方式は実施例12と類似するが、異なる点は以下のとおりである。
ステップb21における「notZeroCostがfalseではなく、且つ、deltaMVが(0,0)である場合のみ、後続処理を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する」ことを、「現在の最適整数画素の上下左右に1つの整数画素だけ離れた4つの点のコスト値が既にステップb1で計算によって取得された場合のみ、後続処理(即ちサブ画素オフセット計算処理)を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する」に変更する。
実施例18では、ステップ303及びステップ403に対して、第1のオリジナル動きベクトルOrg_MV0及び第2のオリジナル動きベクトルOrg_MV1を第1の目標動きベクトルRefined_MV0及び第2の目標動きベクトルRefined_MV1に調整するために、実現方式は実施例12と類似するが、異なる点は以下のとおりである。
ステップb21における「notZeroCostがfalseではなく、且つ、deltaMVが(0,0)である場合のみ、後続処理を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する」ことを、「現在の最適整数画素の上下左右に1つの整数画素だけ離れた4つの点のコスト値が既にステップb1で計算によって取得された場合、後続処理(ステップb22におけるサブ画素オフセット計算処理)を行う。それ以外の場合、ステップb24で処理する」に変更する。
ステップb23では、現在の最適整数画素点MV_inter_orgを、それに最も近き且つ周囲の上下左右に1つの整数画素だけ離れた4つの点のコスト値が既にステップb1で計算によって取得された整数画素点MV_inter_nearestに設定する。次に、MV_inter_nearestを中心にステップb22におけるサブ画素オフセット計算処理を行う、即ち、MV_inter_nearestを中心にSPMVを取得する。
例えば、現在の最適整数画素点MV_inter_orgの上下左右に1つの整数画素だけ離れた4つの点のコスト値が、全てステップb1で計算によって取得されていない場合、最適整数画素点MV_inter_orgの周囲から1つの整数画素点MV_inter_nearestを選択し、この整数画素点MV_inter_nearestの上下左右に1つの整数画素だけ離れた4つの点のコスト値は、ステップb1で既に計算によって取得されている。
そして、整数画素点MV_inter_nearestを現在の最適整数画素点とし、整数画素点MV_inter_nearestを中心としてSPMVを取得し、具体的な取得方式はステップb22を参照する。
整数画素点MV_inter_nearestを中心としてSPMVを取得する時、ステップb22参照して、x及びyを計算する際に、x及びyは[-2N,2N]の範囲内に限定されることができる。x/yが2Nより大きい場合、x/yに2Nを代入し、x/yが-2Nより小さい場合、x/yに-2Nを代入する。1/2、1/4、1/8及び1/16の動きベクトル画素精度に対して、N=1、2、4及び8である。
実施例19では、上述の実施例において、中心動きベクトルに対応するエッジ動きベクトル、例えば5つのエッジ動きベクトルを確定する必要がある。例えば、中心動きベクトル(x,y)を異なる方向にSだけシフトし、異なる方向のエッジ動きベクトル(x,y+S)と、エッジ動きベクトル(x,y-S)と、エッジ動きベクトル(x+S,y)と、エッジ動きベクトル(x-S,y)と、エッジ動きベクトル(x+right,y+down)とを順次得ることができる。又は、中心動きベクトル(x,y)を異なる方向にSだけシフトし、異なる方向のエッジ動きベクトル(x,y-S)と、エッジ動きベクトル(x,y+S)と、エッジ動きベクトル(x-S,y)と、エッジ動きベクトル(x+S,y)と、エッジ動きベクトル(x+right,y+down)とを順次得ることができる。
例えば、仮に、(x,y)が(0,0)であり、Sが1である場合、(0,1)、(0,-1)、(1,0)、(-1,0)、(right,down)の5つのエッジ動きベクトルを順次得ることができる。又は、(0,-1)、(0,1)、(-1,0)、(1,0)、(right,down)の5つのエッジ動きベクトルを順次得ることができる。
実施例20では、上記実施例において、エッジ動きベクトル(x+right,y+down)のデフォルト値は(x-S,y-S)である。エッジ動きベクトル(x+S,y)のコスト値がエッジ動きベクトル(x-S,y)のコスト値より小さい場合、rightはS(-SをSに変更する)であり、エッジ動きベクトル(x,y+S)のコスト値がエッジ動きベクトル(x,y-S)のコスト値より小さい場合、downはS(-SをSに変更する)である。又は、エッジ動きベクトル(x+S,y)のコスト値がエッジ動きベクトル(x-S,y)のコスト値以下の場合、rightはS(-SをSに変更する)であり、エッジ動きベクトル(x,y+S)のコスト値がエッジ動きベクトル(x,y-S)のコスト値以下の場合、downはS(-SをSに変更する)である。
例えば、(0,1)、(0,-1)、(1,0)、(-1,0)、(right,down)の5つのエッジ動きベクトルを順次得て、(right,down)のデフォルト値は(-1,-1)である。エッジ動きベクトル(1,0)のコスト値がエッジ動きベクトル(-1,0)のコスト値より小さい場合、rightは1であり、エッジ動きベクトル(0,1)のコスト値がエッジ動きベクトル(0,-1)のコスト値より小さい場合、downは1である。又は、エッジ動きベクトル(1,0)のコスト値がエッジ動きベクトル(-1,0)のコスト値以下の場合、rightは1であり、エッジ動きベクトル(0,1)のコスト値がエッジ動きベクトル(0,-1)のコスト値以下の場合、downは1である。
例えば、(0,-1)、(0,1)、(-1,0)、(1,0)、(right,down)の5つのエッジ動きベクトルが順次得られ、(right,down)のデフォルト値は(-1,-1)である。エッジ動きベクトル(1,0)のコスト値がエッジ動きベクトル(-1,0)のコスト値より小さい場合、rightは1であり、エッジ動きベクトル(0,1)のコスト値がエッジ動きベクトル(0,-1)のコスト値より小さい場合、downは1である。又は、エッジ動きベクトル(1,0)のコスト値がエッジ動きベクトル(-1,0)のコスト値以下の場合、rightは1であり、エッジ動きベクトル(0,1)のコスト値がエッジ動きベクトル(0,-1)のコスト値以下の場合、downは1である。
実施例21では、ステップ303及びステップ403は、現在のブロックの各サブブロックに対して、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを得て、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを得る。
1つのサブブロック(現在のブロックにおけるサイズがdx*dyである各サブブロックのような、例えばサイズが16*16であるサブブロック、又はそれよりの小さい1つの整数ブロック)に対する処理を例として、オリジナル動きベクトルの調整処理を説明する。
ステップc1では、第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心として、周囲の動きベクトルから一部又は全ての動きベクトルを選択し、選択された動きベクトルを候補動きベクトルとする。
例えば、第1のオリジナル動きベクトルを中心として、周囲の動きベクトルから一部又は全ての動きベクトルを選択し、候補動きベクトルとしてよく、この選択方式については後述の実施例を参照する。
説明の便宜上、後述の実施例において、第1のオリジナル動きベクトルを中心とすることを例として説明する。
ステップc2では、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルに対応する第3のコスト値と、各候補動きベクトルに対応する第4のコスト値とを取得する。
例えば、第1のオリジナル動きベクトルに対応するサブ参照ブロックA1は、第1の参照ブロックからコピーによって取得されるものであり、サブ参照ブロックA1は第1の参照ブロックにおける第1のオリジナル動きベクトルのサブ参照ブロックであり、サブ参照ブロックA1のサイズは現在のブロックのサイズである。第2のオリジナル動きベクトルに対応するサブ参照ブロックB1は、第2の参照ブロックからコピーによって取得されるものであり、サブ参照ブロックB1は第2のオリジナル動きベクトルの第2の参照ブロックにおけるサブ参照ブロックであり、サブ参照ブロックB1のサイズは現在のブロックのサイズである。次に、サブ参照ブロックA1の第1の画素値とサブ参照ブロックB1の第2の画素値とを用いて、第1のオリジナル動きベクトルに対応する第3のコスト値を取得する。
各候補動きベクトルに対して、候補動きベクトルに対応するサブ参照ブロックA2は、第1の参照ブロックからコピーによって取得されるものであり、サブ参照ブロックA2は候補動きベクトルの第1の参照ブロックにおけるサブ参照ブロックであり、サブ参照ブロックA2のサイズは現在のブロックのサイズである。候補動きベクトルの対称動きベクトルに対応するサブ参照ブロックB2は、第2の参照ブロックからコピーによって取得されるものであり、サブ参照ブロックB2は対称動きベクトルの第2の参照ブロックにおけるサブ参照ブロックであり、サブ参照ブロックB2のサイズは現在のブロックのサイズである。サブ参照ブロックA2の第1の画素値とサブ参照ブロックB2の第2の画素値とを利用して、候補動きベクトルに対応する第4のコスト値を取得する。
ステップc3では、第3のコスト値及び第4のコスト値に基づいて、最適動きベクトルとして、第1のオリジナル動きベクトル及び候補動きベクトルから1つの動きベクトルを選択する。例えば、コスト値が最も小さい動きベクトル(例えば、第1のオリジナル動きベクトル、又は任意1つの候補動きベクトル)を最適動きベクトルとする。
ステップc4では、最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値(第1のオリジナル動きベクトルを調整することに用いられる)及び第2の整数画素動きベクトル調整値(第2のオリジナル動きベクトルを調整することに用いられる)を確定する。一例では、最適動きベクトルおよび第1のオリジナル動きベクトルに基づいて、第1の整数画素動きベクトル調整値を確定してよく、第1の整数画素動きベクトル調整値に基づいて、第2の整数画素動きベクトル調整値を確定してよく、第2の整数画素動きベクトル調整値は、第1の整数画素動きベクトル調整値と対称する。
例えば、仮に、最適動きベクトルが(4,6)であり、第1のオリジナル動きベクトルが(4,4)である場合、最適動きベクトル(4,6)と第1のオリジナル動きベクトル(4,4)とに基づいて、第1の整数画素動きベクトル調整値を確定する。第1の整数画素動きベクトル調整値は、最適動きベクトル(4,6)と第1のオリジナル動きベクトル(4,4)との差であり、即ち、第1の整数画素動きベクトル調整値は(0,2)である。
そして、第1の整数画素動きベクトル調整値(0,2)に基づいて第2の整数画素動きベクトル調整値を確定し、第2の整数画素動きベクトル調整値は(0,-2)であってよく、即ち(0,2)の反数であってよい。
ステップc5では、最適動きベクトルに基づいて第1のサブ画素動きベクトル調整値(第1のオリジナル動きベクトルを調整することに用いられる)及び第2のサブ画素動きベクトル調整値(第2のオリジナル動きベクトルを調整することに用いられる)を確定する。
一例では、最適動きベクトルに対応するコスト値と、最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値とに基づいて、第1のサブ画素動きベクトル調整値を確定し、そして、前記第1のサブ画素動きベクトル調整値に基づいて第2のサブ画素動きベクトル調整値を確定する。
例えば、x=N*(E(-1,0)-E(1,0))/(E(-1,0)+E(1,0)-2*E(0,0))、y=N*(E(0,-1)-E(0,1))/(E(0,-1)+E(0,1)-2*E(0,0))であり、1/2、1/4、1/8及び1/16の動きベクトル画素精度に対して、N=1、2、4及び8である。次に、(x,y)にdeltaMvを代入し、SPMV=deltaMv/2Nとし、現在のが1/16の動きベクトル画素精度である場合、SPMVは(x/16,y/16)となる。
SPMVは、第1のサブ画素動きベクトル調整値である。E(0,0)は、最適動きベクトルのコスト値を表し、E(-1,0)は、最適動きベクトルを中心とする最適動きベクトル(0,0)のエッジ動きベクトル(-1,0)のコスト値であり、E(1,0)は、最適動きベクトルを中心とする最適動きベクトル(0,0)のエッジ動きベクトル(1,0)のコスト値であり、E(0,-1)は、最適動きベクトルを中心とする最適動きベクトル(0,0)のエッジ動きベクトル(0,-1)のコスト値であり、E(0,1)は、最適動きベクトルを中心とする最適動きベクトル(0,0)のエッジ動きベクトル(0,1)のコスト値である。各動きベクトルのコスト値に対して、その確定方式は上記実施例を参照できるため、ここでの説明を省略する。
上記方式で第1のサブ画素動きベクトル調整値を確定した後、第1のサブ画素動きベクトル調整値に基づいて第2のサブ画素動きベクトル調整値を確定できる。第2のサブ画素動きベクトル調整値は第1のサブ画素動きベクトル調整値の反数である。例えば、第1のサブ画素動きベクトル調整値が(1,0)である場合、第2のサブ画素動きベクトル調整値は(-1,0)であり、即ち(1,0)の反数である。
ステップc6では、第1の整数画素動きベクトル調整値及び/又は第1のサブ画素動きベクトル調整値に基づいて、第1のオリジナル動きベクトルを調整し、第1の目標動きベクトルを得る。
例えば、第1の目標動きベクトル=第1のオリジナル動きベクトル+第1の整数画素動きベクトル調整値+第1のサブ画素動きベクトル調整値である。勿論、上記は例示に過ぎず、これに対して限定しない。
ステップc7では、第2の整数画素動きベクトル調整値及び/又は第2のサブ画素動きベクトル調整値に基づいて、第2のオリジナル動きベクトルを調整し、第2の目標動きベクトルを得る。
例えば、第2の目標動きベクトル=第2のオリジナル動きベクトル+第2の整数画素動きベクトル調整値+第2のサブ画素動きベクトル調整値である。勿論、上記は例示に過ぎず、これに対して限定しない。
実施例22では、ステップ303及びステップ403は、現在のブロックの各サブブロックに対して、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを得て、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを得る。
1つのサブブロック(現在のブロックにおけるサイズがdx*dyである各サブブロックのような、例えばサイズが16*16であるサブブロック、又はそれより小さいブロック)の処理を例として、オリジナル動きベクトルの調整処理を説明する。第1のオリジナル動きベクトルをOrg_MV0とし、第2のオリジナル動きベクトルをOrg_MV1とし、第1の目標動きベクトルをRefined_MV0とし、第2の目標動きベクトルをRefined_MV1としてよい。
ステップd1では、第1のオリジナル動きベクトルを中心として、前記第1のオリジナル動きベクトルの周囲の(2*SR+1)*(2*SR+1)個の点から、一部又は全ての動きベクトルを選択する。例えば、SR=2である場合、候補動きベクトルとして、第1のオリジナル動きベクトルの周囲の25個の点の中から一部又は全ての動きベクトルを選択する。次に、第1のオリジナル動きベクトルのコスト値を確定して、各候補動きベクトルのコスト値を確定する。次に、コスト値が最も小さい動きベクトルを最適動きベクトルとする。
上記実施例のステップb1と比べて、ステップd1は、反復処理を行う必要がなく、即ち、反復処理によって、1回目の反復で一部の動きベクトルを選択して2回目の反復でさらに一部の動きベクトルを選択するのではなく、1回目で処理対象の全ての候補動きベクトルを選択できる。これにより、全ての処理対象の候補動きベクトルを一度に選択するため、これらの候補動きベクトルに対して並列処理を行って、各候補動きベクトルのコスト値を取得できる。これにより、計算の複雑さを低減し、符号化性能を向上させる。
ステップd2では、最適動きベクトルに基づいてIntegerDeltaMVの値を確定し、IntegerDeltaMVの最終値は第1の全画素動きベクトル調整値である。確定方式については説明を省略する。
ステップd3では、最適動きベクトルを中心として、最適サブ画素オフセットMVを取得して、SPMVとする。SPMVの値は第1のサブ画素動きベクトル調整値である。
ステップd3の実現は、上記ステップb2を参照してよいため、ここでの説明を省略する。
ステップd4では、IntegerDeltaMV及びSPMVに基づいて、BestMVoffsetを取得する。例えば、BestMVoffset=IntegerDeltaMV+SPMVである。
BestMVoffsetに基づいて目標動きベクトルを取得する。ここで、Refined_MV0=Org_MV0+BestMVoffsetであり、Refined_MV1=Org_MV1-BestMVoffsetである。
実施例23では、ステップ303とステップ403に対して、第1のオリジナル動きベクトルOrg_MV0と第2のオリジナル動きベクトルOrg_MV1とを第1の目標動きベクトルRefined_MV0と第2の目標動きベクトルRefined_MV1とに調整するために、実現方式は実施例21、実施例22と類似する。
本実施例では、オリジナル動きベクトルを中心として、オリジナル動きベクトルの周囲の合計(2*SR+1)*(2*SR+1)個の点から、全ての動きベクトルを選択する。例えば、SR=2である場合、オリジナル動きベクトルの周囲の25個の点から全ての動きベクトルを選択し、これらの動きベクトルのコスト値を確定して、各動きベクトルのコスト値を確定する。そして、コスト値が最も小さい動きベクトルを最適動きベクトルとする。
実施例24では、ステップ303とステップ403に対して、第1のオリジナル動きベクトルOrg_MV0と第2のオリジナル動きベクトルOrg_MV1とを第1の目標動きベクトルRefined_MV0と第2の目標動きベクトルRefined_MV1とに調整するために、実現方式は実施例21、実施例22と類似する。本実施例において、処理対象の全ての候補動きベクトルを一度に選択するため、これらの候補動きベクトルに対して並列処理を行うことができ、各候補動きベクトルのコスト値を取得し、それにより計算の複雑さを減少させ、符号化性能を向上させる。
本実施例では、オリジナル動きベクトルを中心として、オリジナル動きベクトルの周囲の合計(2*SR+1)*(2*SR+1)個の点の中から、オフセットがSRを超えない範囲内の一部の動きベクトルを選択する。例えば、オリジナル動きベクトルを含む(2*SR+1)*(2*SR+1)個の点の中から、N個(Nは1以上、(2*SR+1)*(2*SR+1)以下である)の候補点を選択する。これらのN個の点に対応する動きベクトルのコスト値を確定する。これらのN点のコスト値を一定の順序でスキャンし、最適動きベクトルとして、コスト値が最も小さい動きベクトルを選択する。コスト値が同じである場合、順序の上位にある候補点を優先的に選択する。
一例では、仮にSR=2である場合、候補点は25個であってよく、これらの候補点の順序は、左から右へ、上から下への順序であってよい。図7Aに示すように、これらの候補点の順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}であってよい。
これらの25個の点の動きベクトルに対応するコスト値を確定し、上記順序でスキャンし、最適オフセットMVとして、コスト値が最も小さい動きベクトルを取得する。最適オフセットMVを利用して、整数画素動きベクトル調整値及びサブ画素動きベクトル調整値を確定できる。確定方式は上記実施例を参照する。
別の例では、仮にSR=2である場合、候補点は21個であってよく、これらの候補点の順序は、左から右へ、上から下への順序であってよい。図7Bに示すように、これらの候補点の順序は、{Mv(-1,-2),Mv(0,-2),Mv(1,-2),Mv(-2,-1),Mv(-1,-1),Mv(0,-1),Mv(1,-1),Mv(2,-1),Mv(-2,0),Mv(-1,0),Mv(0,0),Mv(1,0),Mv(2,0),Mv(-2,1),Mv(-1,1),Mv(0,1),Mv(1,1),Mv(2,1),Mv(-1,2),Mv(0,2),Mv(1,2)}であってよい。これらの21個の点の動きベクトルに対応するコスト値を確定し、上記順序でスキャンし、最適オフセットMVとして、コスト値が最も小さい動きベクトルを取得する。最適オフセットMVを利用して、整数画素動きベクトル調整値及びサブ画素動きベクトル調整値を確定できる。確定方式は上記実施例を参照する。
別の例では、仮にSR=2である場合、候補点は25個であってよく、これらの候補点の順序は、動きベクトル(0、0)を中心として、中心から近い順である。図7Cに示すように、これらの候補点の順序は、{Mv(0,0),Mv(-1,0),Mv(0,-1),Mv(1,0),Mv(0,1),Mv(-1,1),Mv(-1,-1),Mv(1,-1),Mv(1,1),Mv(0,2),Mv(-2,0),Mv(0,-2),Mv(2,0),Mv(1,2),Mv(-1,2),Mv(-2,1),Mv(-2,-1),Mv(-1,-2),Mv(1,-2),Mv(2,-1),Mv(2,1),Mv(-2,2),Mv(-2,-2),Mv(2,-2),Mv(2,2)}であってよい。これらの25個の点の動きベクトルに対応するコスト値を確定し、上記順序でスキャンし、最適オフセットMVとして、コスト値が最も小さい動きベクトルを取得する。最適オフセットMVを利用して、整数画素動きベクトル調整値及びサブ画素動きベクトル調整値を確定できる。確定方式は上記実施例を参照する。
別の例では、仮にSR=2である場合、候補点は21個であってよく、これらの候補点の順序は、動きベクトル(0、0)を中心として、中心から近い順である。図7Dに示すように、これらの候補点の順序は、{Mv(0,0),Mv(-1,0),Mv(0,-1),Mv(1,0),Mv(0,1),Mv(-1,1),Mv(-1,-1),Mv(1,-1),Mv(1,1),Mv(0,2),Mv(-2,0),Mv(0,-2),Mv(2,0),Mv(1,2),Mv(-1,2),Mv(-2,1),Mv(-2,-1),Mv(-1,-2),Mv(1,-2),Mv(2,-1),Mv(2,1)}であってよい。
これらの21個の点の動きベクトルに対応するコスト値を確定し、上記順序でスキャンし、最適オフセットMVとして、コスト値が最も小さい動きベクトルを取得する。最適オフセットMVを利用して、整数画素動きベクトル調整値及びサブ画素動きベクトル調整値を確定できる。確定方式は上記実施例を参照する。
別の例では、SR=2であると仮定する場合、候補点は13個であってよく、これらの候補点の順序は、動きベクトル(0,0)を中心として、中心から近い順である。図7Eに示すように、これらの候補点の順序は、{Mv(0,0),Mv(-1,0),Mv(0,-1),Mv(1,0),Mv(0,1),Mv(-1,1),Mv(-1,-1),Mv(1,-1),Mv(1,1),Mv(0,2),Mv(-2,0),Mv(0,-2),Mv(2,0)}であってよい。これらの13個の点の動きベクトルに対応するコスト値を確定し、上記順序でスキャンし、最適オフセットMVとして、コスト値が最も小さい動きベクトルを取得する。最適オフセットMVを利用して、整数画素動きベクトル調整値及びサブ画素動きベクトル調整値を確定できる。確定方式は上記実施例を参照する。
実施例25では、ステップ303とステップ403に対して、第1のオリジナル動きベクトルOrg_MV0と第2のオリジナル動きベクトルOrg_MV1とを第1の目標動きベクトルRefined_MV0と第2の目標動きベクトルRefined_MV1とに調整するために、実現方式は実施例21、実施例22と類似する。本実施例において、処理対象の全ての候補動きベクトルを一度に選択するため、これらの候補動きベクトルに対して並列処理を行うことができ、各候補動きベクトルのコスト値を取得し、それにより計算の複雑さを減少させ、符号化性能を向上させる。
本実施例では、オリジナル動きベクトルを中心として、オリジナル動きベクトルの周囲の合計(2*SR+1)*(2*SR+1)個の点の中から、オフセットがSRを超えない範囲内の一部の動きベクトルを選択する。例えば、オリジナル動きベクトルを含む(2*SR+1)*(2*SR+1)個の点の中から、N個(Nは1以上、(2*SR+1)*(2*SR+1)以下である)の候補点を選択する。これらのN個の点に対応する動きベクトルのコスト値を確定する。これらのN点のコスト値を一定の順序でスキャンし、最適動きベクトルとして、コスト値が最も小さい動きベクトルを選択する。コスト値が同じである場合、順序の上位にある候補点を優先的に選択する。
実施例25が実施例24と異なる点は、実施例24の候補点の位置がいずれも固定され、即ちオリジナル動きベクトルに依存しないことに対して、実施例25の候補点の位置がオリジナル動きベクトルに依存することである。以下、いくつかの具体例を参照しながら説明する。
一例では、仮にSR=2である場合、候補点は13個であってよく、これらの候補点の順序は、動きベクトル(0,0)を中心として、中心から近い順である。また、中心から第1層の候補点は、順序がオリジナル動きベクトルのサイズに依存しないが、中心から第2層の候補点は、順序がオリジナル動きベクトルのサイズに依存する。これらの候補点の順序は、{Mv(0,0),Mv(-1,0),Mv(0,-1),Mv(1,0),Mv(0,1),Mv(-1,1),Mv(-1,-1),Mv(1,-1),Mv(1,1),Mv(sign_H*2,0),Mv(sign_H*2,sign_V*1),Mv(sign_H*1,sign_V*2),Mv(0,sign_V*2)}である。第1のオリジナル動きベクトルはMV0とされ、水平成分はMV0_Horとされ、垂直成分はMV0_Verとされる。MV0_Horが0以上である場合、sign_H=1であり、それ以外の場合、sign_H=-1である。MV0_Verが0以上である場合、sign_V=1であり、それ以外の場合、sign_V=-1である。
これらの13個の点の動きベクトルに対応するコスト値を確定し、上記順序でスキャンし、最適オフセットMVとして、コスト値が最も小さい動きベクトルを取得する。最適オフセットMVを利用して、整数画素動きベクトル調整値及びサブ画素動きベクトル調整値を確定できる。確定方式は上記実施例を参照する。
別の例では、仮にSR=2である場合、候補点は13個であってよく、これらの候補点の順序は、動きベクトル(0,0)を中心として、中心から近い順である。中心から第1層の候補点は、順序がオリジナル動きベクトルのサイズに依存しないが、中心から第2層の候補点は、順序がオリジナル動きベクトルのサイズに依存する。これらの候補点の順序は、{Mv(0,0),Mv(-1,0),Mv(0,-1),Mv(1,0),Mv(0,1),Mv(-1,1),Mv(-1,-1),Mv(1,-1),Mv(1,1),Mv(sign_H*2,0),Mv(sign_H*2,sign_V*1),Mv(sign_H*1,sign_V*2),Mv(0,sign_V*2)}である。第1のオリジナル動きベクトルはMV0とされ、水平成分はMV0_Horとされ、垂直成分はMV0_Verとされる。MV0_Horが0より大きい場合、sign_H=1であり、それ以外の場合、sign_H=-1である。MV0_Verが0より大きい場合、sign_V=1であり、それ以外の場合、sign_V=-1である。
これらの13個の点の動きベクトルに対応するコスト値を確定し、上記順序でスキャンし、最適オフセットMVとして、コスト値が最も小さい動きベクトルを取得する。最適オフセットMVを利用して、整数画素動きベクトル調整値及びサブ画素動きベクトル調整値を確定できる。確定方式は上記実施例を参照する。
実施例26では、上記実施例において、第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値と、エッジ動きベクトルに対応する第2のコスト値とを取得する。第1の参照ブロックの第1の画素値及び第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルに対応する第3のコスト値と、候補動きベクトルに対応する第4のコスト値とを取得する。
一例では、ダウンサンプリングされていない第1の画素値及びダウンサンプリングされていない第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値と、エッジ動きベクトルに対応する第2のコスト値と、第1のオリジナル動きベクトルに対応する第3のコスト値と、候補動きベクトルに対応する第4のコスト値とを取得してよい。
別の例では、第1の画素値に対してダウンサンプリング操作を行い、第2の画素値に対してダウンサンプリング操作を行ってよい。そして、ダウンサンプリング操作された第1の画素値とダウンサンプリング操作された第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値と、エッジ動きベクトルに対応する第2のコスト値と、第1のオリジナル動きベクトルに対応する第3のコスト値と、候補動きベクトルに対応する第4のコスト値とを取得する。
別の例では、第1の画素値に対してシフト及びダウンサンプリング操作を行い、第2の画素値に対してシフト及びダウンサンプリング操作を行ってよい。そして、処理された第1の画素値及び処理された第2の画素値に基づいて、中心動きベクトルに対応する第1のコスト値と、エッジ動きベクトルに対応する第2のコスト値と、第1のオリジナル動きベクトルに対応する第3のコスト値と、候補動きベクトルに対応する第4のコスト値とを取得する。
異なる状況に対して、コスト値を確定する方式は類似する。例えば、中心動きベクトルに対応するコスト値を取得するためには、中心動きベクトルに対応するサブ参照ブロックA1を第1の参照ブロックからコピーによって取得し、中心動きベクトルに対応する対称動きベクトルに対応するサブ参照ブロックB1を第2の参照ブロックからコピーによって取得し、サブ参照ブロックA1の第1の画素値及びサブ参照ブロックB1の第2の画素値を利用して、中心動きベクトルに対応するコスト値を取得してよい。エッジ動きベクトルに対応するコスト値を取得するためには、エッジ動きベクトルに対応するサブ参照ブロックA2を第1の参照ブロックからコピーによって取得し、エッジ動きベクトルの対称動きベクトルに対応するサブ参照ブロックB2を第2の参照ブロックからコピーによって取得し、サブ参照ブロックA2の第1の画素値及びサブ参照ブロックB2の第2の画素値を利用し、エッジ動きベクトルに対応するコスト値を取得してよい。
以上をまとめると、動きベクトルに対応するコスト値を取得するためには、第1の参照ブロックから当該動きベクトルに対応するサブ参照ブロックを取得し、第2の参照ブロックから当該動きベクトルの対称動きベクトルに対応するサブ参照ブロックを取得してから、2つのサブ参照ブロックの画素値を利用して、当該動きベクトルに対応するコスト値を取得する。
実施例27では、実施例26の上で、ダウンサンプリングされていない第1の画素値(即ち、第1の参照ブロックにおけるサブ参照ブロックのダウンサンプリングされていない画素値)とダウンサンプリングされていない第2の画素値(即ち、第2の参照ブロックにおけるサブ参照ブロックのダウンサンプリングされていない画素値)とに基づいて、動きベクトルに対応するコスト値を取得する。
一例では、仮に、第1の参照ブロックにおけるサブ参照ブロックがpredであり、第2の参照ブロックにおけるサブ参照ブロックがpredである場合、サブ参照ブロックpred及びサブ参照ブロックpredの画素を垂直ダウンサンプリングする必要がなく、サブ参照ブロックpred及びサブ参照ブロックpredの全ての画素値のSADによってコスト値を確定する。
サブ参照ブロックpred及びサブ参照ブロックpredの全ての画素値に基づいて、コスト値の計算式は以下のとおりである。
上記の式において、costはコスト値を表し、Wはサブ参照ブロックの幅値を表し、Hはサブ参照ブロックの高さ値を表し、pred(i,j)はサブ参照ブロックpredのi列j行目の画素値を表し、pred(i,j)はサブ参照ブロックpredのi列j行目の画素値を表し、abs(x)はxの絶対値を表す。
実施例28では、実施例26の上で、第1の画素値に対してダウンサンプリング操作を行い、第2の画素値に対してダウンサンプリング操作を行ってよい。ダウンサンプリング操作された第1の画素値(即ち、第1の参照ブロックにおけるサブ参照ブロックのダウンサンプリング操作された画素値)及びダウンサンプリング操作された第2の画素値(即ち、第2の参照ブロックにおけるサブ参照ブロックのダウンサンプリング操作された画素値)に基づいて、動きベクトルに対応するコスト値を取得してよい。
一例では、仮に、第1の参照ブロックにおけるサブ参照ブロックがpredであり、第2の参照ブロックにおけるサブ参照ブロックがpredである場合、サブ参照ブロックpredおよびサブ参照ブロックpredの全ての画素値のSADによって、コスト値を確定する。全ての画素値のSADを利用してコスト値を確定する時に、サブ参照ブロックpred及びサブ参照ブロックpredの画素値に対して、垂直N倍(Nは、0より大きい整数であり、2であってよい)のダウンサンプリングを行う。
サブ参照ブロックpred及びサブ参照ブロックpredの全ての画素値に基づいて、コスト値の計算式は以下のとおりである。
上記の式において、costはコスト値を表し、Wはサブ参照ブロックの幅値を表し、Hはサブ参照ブロックの高さ値を表し、pred(i,j)はサブ参照ブロックpredのi列j行目の画素値を表し、pred(i,j)はサブ参照ブロックpredのi列j行目の画素値を表し、abs(x)はxの絶対値を表す。
実施例29では、実施例26の上で、第1の画素値に対してシフト及びダウンサンプリング操作を行い、第2の画素値に対してシフト及びダウンサンプリング操作を行い、処理された第1の画素値(第1の参照ブロックにおけるサブ参照ブロックのシフト及びダウンサンプリングされた画素値)及び処理された第2の画素値(第2の参照ブロックにおけるサブ参照ブロックのシフト及びダウンサンプリングされた画素値)に基づいて、動きベクトルに対応するコスト値を取得する。
一例では、仮に、第1の参照ブロックにおけるサブ参照ブロックがpredであり、第2の参照ブロックにおけるサブ参照ブロックがpredであり、pred及びpredはいずれもDビットで格納する。即ち、predにおける各画素値に対していずれもpred(i,j)格納し、predにおける各画素値に対していずれもpred(i,j)格納する。
Dが8以下である場合、サブ参照ブロックpred及びサブ参照ブロックpredの全ての画素値のSADによって、コスト値を確定する。全ての画素値のSADを利用してコスト値を確定する時に、サブ参照ブロックpred及びサブ参照ブロックpredの画素値に対して、垂直N倍(Nは、0より大きい整数であり、2であってよい)のダウンサンプリングを行う。サブ参照ブロックpred及びサブ参照ブロックpredの全ての画素値に基づいて、コスト値の計算式は以下のとおりである。
上記の式において、costはコスト値を表し、Wはサブ参照ブロックの幅値を表し、Hはサブ参照ブロックの高さ値を表し、Nはダウンサンプリングのパラメータ、Nは0より大きい整数であり、2であってよく、pred(1+N(i-1),j)はサブ参照ブロックpredの1+N(i-1)列j行目の画素値を表し、pred(1+N(i-1),j)はサブ参照ブロックpredの1+N(i-1)列j行目の画素値を表し、abs(x)はxの絶対値を表す。以上から分かるように、即ち1行目、N+1行目、2N+1行目…の差の絶対値和のみを計算する。
Dが8より大きい場合、まずサブ参照ブロックpred及びサブ参照ブロックpredの全ての画素値を8ビットにシフトすることで、8ビットのpred及び8ビットのpredが取得され、pred0-8bit(i,j)及びpred1-8bit(i,j)とされる。その目的は、SAD計算の記憶コストを節約するためであり、8ビットで格納することはさらに高い並列度を図れる
そして、8ビットのpred及び8ビットのpredの画素値に対して、垂直N倍(Nは、0より大きい整数であり、2であってよい)のダウンサンプリングを行う。この場合、コスト値の計算式は以下のとおりである。
上記の式において、各部の意味は上記実施例を参照し、ここでの説明を省略する。
実施例30では、ステップ304及びステップ404は、現在のブロックの各サブブロックに対して、当該サブブロックの第1の目標動きベクトル及び当該サブブロックの第2の目標動きベクトルに基づいて、当該サブブロックに対して動き補償を行う。具体的には、当該サブブロックの第1の目標動きベクトルに基づいて、当該サブブロックに対応する第3の参照ブロックを確定し、当該サブブロックの第2の目標動きベクトルに基づいて、当該サブブロックに対応する第4の参照ブロックを確定する。第3の参照ブロックの第3の画素値及び第4の参照ブロックの第4の画素値に基づいて、重み付けを行い、当該サブブロックの予測値を得る。
例えば、サブブロックの2つの目標動きベクトルに基づいて、補間(例えば、8タップの補間)により、2つの方向の参照ブロックを取得する(即ち、3成分の予測値を含む第3の参照ブロック及び第4の参照ブロックを取得する。目標動きベクトルがサブ画素である可能性があるため、補間が必要である)。第3の参照ブロックの第3の画素値及び第4の参照ブロックの第4の画素値に基づいて、重み付けを行い、最終的な予測値(3成分)を得る。
一例では、サブブロックの第1の目標動きベクトルに基づいて、第1の参照フレームから当該サブブロックに対応する第5の参照ブロックを確定し、第5の参照ブロックにおける画素値を補間し、第3の参照ブロックを得てよい。サブブロックの第2の目標動きベクトルに基づいて、第2の参照フレームから当該サブブロックに対応する第6の参照ブロックを確定し、第6の参照ブロックにおける画素値を補間し、第4の参照ブロックを得てよい。
例えば、仮に、現在のブロックのサイズがW*Hである場合、第1の目標動きベクトルに基づいて、第1の参照フレームからサイズがA*Bである第5の参照ブロックを確定してよい。第5の参照ブロックのサイズA*Bは、補間方式に依存しており、AがWより大きく、BがHより大きいが、これらに対して限定しない。第5の参照ブロックにおける画素値を補間することにより、サイズがW*Hである第3の参照ブロックを取得してよく、ここでの補間方式を限定しない。第2の目標動きベクトルに基づいて第2の参照フレームからサイズA*Bの第6の参照ブロックを確定してよい。第6の参照ブロックのサイズA*Bは補間方式に依存し、AはWより大きく、BはHより大きい。第6の参照ブロックにおける画素値を補間することにより、サイズがW*Hである第4の参照ブロックを取得してよく、ここでの補間方式を限定しない。
別の例では、サブブロックの第1の目標動きベクトルに基づいて、第1の参照フレームから当該サブブロックに対応する第7の参照ブロックを確定し、第7の参照ブロックにおける画素値を利用して第8の参照ブロックを構築し、第8の参照ブロックにおける画素値を補間し、第3の参照ブロックを得る。サブブロックの第2の目標動きベクトルに基づいて、第2の参照フレームから当該サブブロックに対応する第9の参照ブロックを確定し、第9の参照ブロックにおける画素値を利用して第10の参照ブロックを構築し、第10の参照ブロックにおける画素値を補間し、第4の参照ブロックを得る。
例えば、仮に、現在のブロックのサイズがW*Hである場合、第1の目標動きベクトルに基づいて、第1の参照フレームからサイズがW*Hである第7参照ブロックを確定してよい。第7の参照ブロックにおける画素値に基づいて、サイズがA*Bである第8の参照ブロックを構築し、ここでの構築方式を限定しない。第8の参照ブロックのサイズA*Bは補間方式に依存し、AはWより大きく、BはHより大きいが、これらに対して限定しない。第8の参照ブロックにおける画素値を補間することにより、サイズがW*Hである第3の参照ブロックを得てよい、ここでの補間方式を限定しない。
また例えば、仮に、現在のブロックのサイズがW*Hである場合、第2の目標動きベクトルに基づいて、サイズがW*Hである第9の参照ブロックを第2の参照フレームから確定してよい。第9の参照ブロックにおける画素値に基づいて、サイズがA*Bである第10の参照ブロックを構築し、ここでの構築方式を限定しない。第10の参照ブロックのサイズA*Bは補間方式に依存し、AはWより大きく、BはHより大きいが、これらに対して限定しない。第10の参照ブロックにおける画素値を補間することにより、サイズがW*Hである第4の参照ブロックを得てよい、ここでの補間方式を限定しない。
実施例31では、目標動きベクトルを取得した後、各サブブロックの目標動きベクトルに基づいて、8タップの補間フィルタにより2つの方向の予測値(即ち、YUVの3成分、即ち、上記第3の参照ブロックの予測値と第4の参照ブロックの予測値)を取得して、重み付け予測値を取得する。図5に示すように、黒領域及び白領域は、参照フレームから取得された画素値であり、灰領域における画素値については、参照フレームから取得する必要がなく、隣接する画素値をコピーすることによって取得してよい。
一例では、まず、白領域における1行目のW+FS-1個の画素値を、灰領域における最初のSR行の画素値にコピーしてよい。白領域における最終行のW+FS-1個の画素値を、灰領域における最終のSR行の画素値にコピーする。次に、白領域における1列目のH+FS-1個の画素及び上下のそれぞれのSR個の取得された灰領域における画素値を、灰領域における最初のSR列の画素値にコピーしてよい。白領域における最終列のH+FS-1個の画素値及び上下のそれぞれのSR個の取得された灰領域の画素値を、灰領域における最終のSR列の画素値にコピーする。
別の例では、まず、白領域における1列目のH+FS-1個の画素値を、灰領域における最初のSR列の画素値にコピーできる。白領域における最終列のH+FS-1個の画素値を、灰領域における最終のSR列の画素値にコピーする。次に、白領域における1行目のW+FS-1個の画素値及び左右のそれぞれのSR個の取得された灰領域における画素値を、灰領域における最初のSR行の画素値にコピーする。白領域における最終行のW+FS-1個の画素値及び左右のそれぞれのSR個の取得された灰領域の画素値を、灰領域における最終のSR行の画素値にコピーする。
実施例32では、目標動きベクトルを取得した後、各サブブロックの目標動きベクトルに基づいて、8タップの補間フィルタにより、2つの方向の予測値(即ち、YUVの3成分、即ち、第3の参照ブロックの予測値と第4の参照ブロックの予測値)を取得して、重み付けして最終的な予測値を取得する。図5に示すように、黒領域及び白領域は、参照フレームから取得された画素値であり、灰領域の画素値に対して、隣接する画素値をコピーすることによって取得するのではなく、参照フレームの対応する領域から直接にコピーして取得する。この方法は簡単であり、より良い性能を有しうるが、参照フレームに対するアクセスデータ量を増加させる。
実施例33では、目標動きベクトルを取得した後、各サブブロックの目標動きベクトルに基づいて、バイリニア補間フィルタ(ここで、8タップの補間フィルタではない)により2つの方向の予測値(即ち、YUVの3成分、即ち、上述した第3の参照ブロックの予測値と第4の参照ブロックの予測値)を取得して、重み付けして最終的な予測値を取得する。図5に示すように、黒領域および白領域は、参照フレームから取得された画素値であってよい。タップ数が比較的少ないため、灰領域における画素値は不要である。
実施例34では、実施例30~実施例33において、2つの方向の予測値を取得した後、均等加重平均(即ち、2つの方向の予測値の重みが同じである)で最終予測値を取得する。又は、2つの方向の予測値を取得した後、加重平均で最終的な予測値を取得し、2つの予測値の重みは異なってもよい。例えば、2つの予測値の重み比率は1:2や1:3、2:1等であってもよい。
符号化側に対して、重みテーブルは1:2、1:3、2:1等の重み比率を含んでよく、符号化側は各重み比率のコスト値を確定して、最小の重み比率を確定してよい。このように、符号化側はコスト値が最小の重み比率に基づいて、加重平均で最終予測値を取得できる。
符号化側が復号化側に符号化ビットストリームを送信する時、当該符号化ビットストリームは、重み値比率の重みテーブルにおけるインデックス値を含む。これにより、復号化側は、符号化ビットストリームのインデックス値を解析することにより、そのインデックス値に対応する重み割合を重みテーブルから取得し、重み割合に基づいて加重平均で最終的な予測値を取得する。
一例では、重みテーブルは、{-2,3,4,5,10}を含んでよいが、これに限定されない。重み「-2」は、最終予測値=(予測値1*(-2)+予測値2*(8-(-2)))、即ち(-2*予測値1+10*予測値2)/8を示す。重み「10」は、重み比が10:-2、即ち最終予測値=(予測値1*(10)+予測値2*(-2))、即ち(10*予測値1-2*予測値2)/8であることを示す。重み「3」は、重み比が3:5であることを示す。重み「5」は、重み比が5:3であることを示す。重み「4」は、重み比が4:4、即ち、重みが同じであることを示す。
実施例35では、ステップ305及びステップ405は、現在のブロックの各サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルを保存する必要があり、第1の目標動きベクトル及び第2の目標動きベクトルは後続のブロックの符号化/復号化の参照に用いられる。例えば、第1の目標動きベクトルと第2の目標動きベクトルとは現在のフレームのループフィルタリングに用いられる。第1の目標動きベクトルと第2の目標動きベクトルとは後続のフレームの時間領域の参照に用いられる。及び/又は、第1の目標動きベクトルと第2の目標動きベクトルとは現在のフレームの空間領域の参照に用いられる。
例えば、現在のブロックの各サブブロックの第1目標動きベクトル及び第2目標動きベクトルは、現在のブロックの動き補償のために用いられるが、後続のフレームの時間領域の参照のためにも用いられる。また例えば、現在のブロックの各サブブロックの第1目標動きベクトルと第2目標動きベクトルは、現在のブロックの動き補償に用いられるが、現在のブロックのループフィルタリング過程にも用いられ、さらに、後続のフレームの時間領域の参照に用いられる。
また例えば、現在のブロックの各サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルは、現在のブロックの動き補償に用いられるが、現在のブロックのループフィルタリングにも用いられて、さらに、後続のフレームの時間領域参照にも用いられ、現在のフレームの空間領域の参照にも用いられる。これについて、以下に説明する。
現在のブロックの各サブブロックの第1目標動きベクトル及び第2目標動きベクトルは、空間領域でのいくつかのLCU(Largest Coding Unit)内のブロックの空間領域の参照に用いられる。コーデック順序が上から下へ、左から右へであるため、現在のブロックの動きベクトルは、現在のLCU内の他のブロックによって参照されてもよく、後続の隣接するLCU内のブロックによって参照されてもよい。目標動きベクトルを取得するために必要な計算量が大きいため、後続のブロックが現在のブロックの目標動きベクトルを参照すると、待ち時間が長くなってしまう。長い待ち時間による遅延を回避するように、少数の空間領域で隣接するブロックのみに対して現在のブロックの目標動きベクトルを参照することを許容し、他のブロックは現在のブロックのオリジナル動きベクトルを参照する。図8を参照して、これらの少数のブロックは、現在のLCUの下側に位置する下側のLCU及び右下側のLCU内のサブブロックを含み、右側のLCU及び左下側のLCU内のサブブロックは、現在のブロックの目標動きベクトルを参照することができない。
実施例36では、以下、一具体例を参照しながら、動きベクトルの調整過程を説明する。動きベクトル調整の具体的なステップは以下のとおりである。後述の「コピー」とは、補間不要で取得できることを意味し、MVが整数画素オフセットである場合、参照フレームから直接にコピーできるが、それ以外の場合、補間で取得する必要がある。
ステップe1では、現在のブロックがmerge又はskipモードを用いる場合、以下の処理を実行する。
ステップe2では、参照画素値を用意する(仮に、現在のブロックの幅がWであり、高さがHである)。
ステップe3に用いられる整数画素ブロックを用意することは、オリジナル動きベクトル(リスト0のオリジナル動きベクトルはOrg_MV0とされ,リスト1のオリジナル動きベクトルはOrg_MV1とされる)に基づいて、2つの面積が(W+FS-1)*(H+FS-1)である3成分の整数画素ブロックを、対応する参照フレームに対応する位置にコピーすることを含む。
ステップe4に用いられる整数画素ブロックを用意することは、図5に示すように、上記(W+FS-1)*(H+FS-1)の整数画素ブロックに基づいて、(W+FS-1)*(H+FS-1)の3成分の整数画素ブロックを、上下左右にそれぞれSR行/列だけ拡張し、その後、面積が(W+FS-1+2*SR)*(H+FS-1+2*SR)の3成分の整数画素ブロックが得られ、Pred_Inter0及びPred_Inter1とされることを含む。
2つの異なる方向の動き情報に基づいて、第1の動き補償を行う。例えば、輝度成分(後続の探索処理は輝度成分を用いてコスト値を計算するので、複雑さが低減される)に対して、2つの面積が(W+FS-1)*(H+FS-1)である整数画素参照ブロックに基づいて、バイリニア補間で、サイズが(W+2*SR)*(H+2*SR)である2つの初期参照予測値(Pred_Bilinear0及びPred_Bilinear1とする)を取得し、FSはフィルタのタップ数であり、デフォルトで8であり、SRは探索範囲であり、即ち、目標動きベクトルおよびオリジナル動きベクトルの最大水平/垂直成分の補間であり、デフォルトで2である。Pred_Bilinear0/1は、ステップe3に用いられる。
ステップe3では、現在のブロックの各dx*dyのサブブロック(16*16以下の整数ブロック)に対して、それぞれ目標動きベクトル(2つの目標動きベクトルはそれぞれRefined_MV0及びRefined_MV1とする)を取得する。
ステップe31では、SR回の反復を行い、最適整数画素のMV点の整数画素オフセットを取得し、IntegerDeltaMVとし、IntegerDeltaMVを(0,0)に初期化する。毎回の反復では、以下の処理が実行される。
ステップe311では、deltaMVを(0,0)に設定する。最初の反復である場合、オリジナル動きベクトルに基づいて、参照画素Pred_Bilinear0/1から、コピーすることにより2つの予測値ブロック(実際にはPred_Bilinear0/1の最も中心にあるW*Hのブロック)を取得し、これら2つの予測値ブロックに基づいて、初期コスト値、即ち2つの方向予測値ブロックの垂直2倍のダウンサンプリングされたSADを取得する。
当該初期コスト値が4*dx*dy/2より小さい場合、dx及びdyは現サブブロックの幅及び高さであり、後続の探索処理を直接にスキップして、ステップe32を実行し、notZeroCostをfalseに設定する。
ステップe312では、図6に示すように、上記初期点を中心として、{Mv(0,1),Mv(0,-1),Mv(1,0),Mv(-1,0),Mv(right,down)}の5つのオフセットMV(これらの5つのオフセットMVはいずれもMVOffsetとされる)を順次得て、これらの5つのオフセットMVのコスト値の計算及び比較処理を行う。
例えば、あるMVOffsetに基づいて、参照画素Pred_Bilinear0/1から、MVOffsetにより2つの予測ブロック(実際には、Pred_Bilinear0において中心位置をMVOffsetだけシフトされたW*Hのブロックと、Pred_Bilinear1において中心位置を-MVOffset(list0とは逆)だけシフトされたW*Hのブロック)を取得し、MVOffsetのコスト値として、これらの2つのブロックのダウンサンプリングSADを計算する。次回の反復の新たな中心オフセット点として、最小コスト値を有するMVOffset(deltaMVに保存する)を保留する
Mv(right,down)のデフォルト値は、(-1,-1)である。Mv(1,0)のコスト値がMv(-1,0)のコスト値より小さい場合、rightは1である。Mv(0,1)のコスト値がMv(0,-1)のコスト値より小さい場合、downは1である。
deltaMV値に基づいてIntegerDeltaMVを更新する。即ち、=IntegerDeltaMV+deltaMV。
ステップe313では、反復を行った後、最適MVが依然として初期MVであるか又は最小コスト値が0である場合、次回の反復探索処理を行わず、ステップe32を実行し、notZeroCostをfalseに設定する。それ以外の場合、反復回数がSRに達すると、ステップe32を実行し、反復回数がSRに達しないと、最適MVを中心として、次回の反復探索処理を行い、即ちステップe311に戻る。
ステップe32では、ステップe31の最適整数画素のMV点を中心として、最適サブ画素のオフセットMVを取得し、SPMVとする。SPMVを(0,0)に初期化して、以下の処理を実行する。
ステップe321では、notZeroCostがfalseでなく、且つdeltaMVが(0,0)である場合のみ、後続処理を行う。それ以外の場合、IntegerDeltaMVを直接に利用してオリジナル動きベクトルを調整する。
ステップe322では、E(x,y)をステップe31で得られた最適MV点オフセット(x,y)のMV対応コスト値(ステップe31で計算されたコスト値)とする。中心及び上下左右の5つの点のE(x,y)に基づいて、E(x,y)が最小である点のオフセット(x,y)を得ることができる。ここで、x=N*(E(-1,0)-E(1,0))/(E(-1,0)+E(1,0)-2*E(0,0))、y=N*(E(0,-1)-E(0,1))/(E(0,-1)+E(0,1)-2*E(0,0))。
一例では、1/2、1/4、1/8及び1/16の動きベクトル画素精度に対して、N=1、2、4及び8である。そして、(x,y)にdeltaMvを代入してよく、SPMV=deltaMv/2Nである。現在の動きベクトル画素精度が1/16である場合、SPMVは、(x/16,y/16)である。
E(-1,0)=E(0,0)である場合、水平に左へ半画素分シフトする(deltaMv[0]=-N)。
E(1,0)=E(0,0)である場合、水平に右へ半画素分シフトする(deltaMv[0]=N)。
E(0,-1)=E(0,0)である場合、垂直に上へ半画素分シフトする(deltaMv[1]=-N)。
E(0,1)=E(0,0)である場合、垂直に下へ半画素分シフトする(deltaMv[1]=N)。
ステップe33では、ステップe31の整数画素オフセットIntegerDeltaMV及びステップe32のサブ画素オフセットSPMVに基づいて、最適オフセットMVを取得し、BestMVoffsetとする。BestMVoffset=IntegerDeltaMV+SPMVである。BestMVoffsetに基づいて2つの方向の目標動きベクトルを取得してよい。ここで、Refined_MV0=Org_MV0+BestMVoffsetであり、Refined_MV1=Org_MV1-BestMVoffsetである。
ステップe4では、各サブブロックの目標動きベクトルに基づいて、8タップの補間を行って2つの方向の予測値を取得し、重み付けを行って最終的な予測値(3成分)を取得する。例えば、各サブブロックの目標動きベクトルRefined_MV0及びRefined_MV1に基づいて、ステップe2で用意されたPred_Inter0/1において、補間によって対応する予測ブロックを取得する(動きベクトルはがサブ画素である可能性があるため、対応する画素ブロックを取得するように、補間は必要である)。
ステップe5では、目標動きベクトルは、現在のブロックの動き補償及び後続のフレームの時間領域の参照に用いられる。
実施例37では、上記実施例は、個別にまたは任意の組み合わせで実施されてもよい。例えば、実施例13、実施例15、実施例24、実施例29はそれぞれ個別に実施されてよい。実施例13と実施例15、実施例13と実施例24、実施例13と実施例29、実施例15と実施例24、実施例15と実施例29、実施例24と実施例29、実施例13と実施例15と実施例24、実施例13と実施例15と実施例29、実施例15と実施例24と実施例29、実施例13と実施例15と実施例24と実施例29などの組み合わせなどで実施されてよい。勿論、上記はいくつかの例に過ぎず、これに対して限定しない。本願に係る全ての実施例は、いずれも個別にまたは任意の組み合わせで実施できる。
実施例38では、
上記方法と同様な発明概念に基づいて、本願の実施例は、さらに、符号化側又は復号化側に適用されるコーデック装置を提供する。図9は前記装置の構成図であり、図9に示すように、前記装置は、
現在のブロックの特徴情報が特定の条件を満たす場合、前記現在のブロックの第1のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第2の参照ブロックを確定する、確定モジュール91と、前記第1の参照ブロックの第1の画素値と前記第2の参照ブロックの第2の画素値とに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得る、処理モジュール92と、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記現在のブロックを符号化又は復号化する、コーデックモジュール93と、を含む。
前記特徴情報は、前記現在のブロックに対応する動き情報予測モードと、前記現在のブロックに対応する動き情報属性と、前記現在のブロックのサイズ情報とのうちの1つ又は複数を含む。
前記特徴情報が前記現在のブロックに対応する動き情報予測モードである場合、前記確定モジュール91は、さらに、前記現在のブロックに対応する動き情報予測モードが通常マージモードである場合、前記現在のブロックに対応する動き情報予測モードが特定の条件を満たすことを確定すること、又は、前記現在のブロックに対応する動き情報予測モードがインター予測値とイントラ予測値を統合して新たな予測値を生成するためのマージモードである場合、前記現在のブロックに対応する動き情報予測モードが特定の条件を満たすことを確定すること、に用いられる。
前記特徴情報が前記現在のブロックに対応する動き情報属性である場合、前記確定モジュール91は、さらに、前記現在のブロックに対応する動き情報属性が、前記現在のブロックの動き情報が2つの異なる方向の動き情報を含むことである場合、前記現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定すること、又は、前記現在のブロックに対応する動き情報属性が、前記現在のブロックの動き情報が2つの異なる方向の動き情報を含み、前記2つの異なる方向の動き情報に対応する2つの参照フレームと現在のフレームとの距離が同じであることである場合、前記現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定すること、又は、前記現在のブロックに対応する動き情報属性が、前記現在のブロックの周囲ブロックを利用したことである場合、前記現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定すること、又は、前記現在のブロックに対応する動き情報属性が、前記現在のブロックの各サブブロックの動き情報が同じであることである場合、前記現在のブロックに対応する動き情報属性が特定の条件を満たすことを確定すること、に用いられる。
前記特徴情報が前記現在のブロックの幅値及び前記現在のブロックの高さ値を含む前記現在のブロックのサイズ情報である場合、前記確定モジュール91は、さらに、前記現在のブロックの幅値が第1の区間[第1の閾値,第2の閾値]の範囲内である場合、前記現在のブロックのサイズ情報が特定の条件を満たすことを確定すること、又は、前記現在のブロックの高さ値が第2の区間[第3の閾値,第4の閾値]の範囲内である場合、前記現在のブロックのサイズ情報が特定の条件を満たすことを確定すること、又は、前記現在のブロックの幅値及び前記現在のブロックの高さ値によって得られた面積が第3の区間[第5の閾値,第6の閾値]の範囲内である場合、前記現在のブロックのサイズ情報が特定の条件を満たすことを確定すること、又は、前記幅値が第1の区間[第1の閾値,第2の閾値]の範囲内であり、かつ、前記高さ値が第2の区間[第3の閾値,第4の閾値]の範囲内であり、かつ、前記面積が第3の区間[第5の閾値,第6の閾値]の範囲内である場合、現在のブロックのサイズ情報が特定の条件を満たすことを確定すること、に用いられる。
前記確定モジュール91は、前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて前記現在のブロックに対応する第2の参照ブロックを確定する時に、具体的に、前記現在のブロックの第1のオリジナル動きベクトルに基づいて、第1の参照フレームから前記現在のブロックに対応する第1の参照ブロックを確定することと、前記現在のブロックの第2のオリジナル動きベクトルに基づいて、第2の参照フレームから前記現在のブロックに対応する第2の参照ブロックを確定することと、に用いられる。前記第1の参照ブロックにおける各画素点の第1の画素値は、前記第1の参照ブロックにおける隣接する画素点の画素値を補間することにより得られ、又は、前記第1の参照ブロックにおける隣接する画素点の画素値をコピーすることにより得られる。前記第2の参照ブロックにおける各画素点の第2の画素値は、前記第2の参照ブロックにおける隣接する画素点の画素値を補間することにより得られ、又は、前記第2の参照ブロックにおける隣接する画素点の画素値をコピーすることにより得られる。
前記処理モジュール92は、前記第1の参照ブロックの第1の画素値及び前記第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得る時に、具体的に、
前記現在のブロックが少なくとも1つのサブブロックを含む場合、前記現在のブロックの各サブブロックに対して、前記第1の画素値及び前記第2の画素値に基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記サブブロックの第1の目標動きベクトル及び第2の目標動きベクトルを得ること、に用いられる。
例えば、前記第1の画素値及び前記第2の画素値に基づいて、前記サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値、及び/又は、前記サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定し、前記第1の整数画素動きベクトル調整値及び/又は第1のサブ画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記サブブロックの第1の目標動きベクトルを得て、前記第2の整数画素動きベクトル調整値及び/又は第2のサブ画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクトルを調整し、前記サブブロックの第2の目標動きベクトルを得る。
前記処理モジュール92は、前記第1の画素値及び前記第2の画素値に基づいて、前記サブブロックの第1の整数画素の動きベクトル調整値及び第2の整数画素の動きベクトル調整値と、前記サブブロックの第1のサブ画素の動きベクトル調整値及び第2のサブ画素の動きベクトル調整値とを確定する時に、具体的に、
前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心動きベクトルに確定し、
前記中心動きベクトルに対応するエッジ動きベクトルを確定し、
前記第1の画素値及び前記第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得し、
前記第1のコスト値及び前記第2のコスト値に基づいて、最適動きベクトルとして、前記中心動きベクトル及び前記エッジ動きベクトルから1つの動きベクトルを選択し、
終了条件が満たされるか否かを判断し、終了条件が満たされない場合、前記最適動きベクトルを中心動きベクトルに確定し、前記中心動きベクトルに対応するエッジ動きベクトルを確定することに戻り、
終了条件が満たされる場合、前記最適動きベクトルに基づいて、前記サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定し、前記最適動きベクトルに基づいて、前記サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定すること、に用いられる。
前記処理モジュール92は、前記中心動きベクトルに対応するエッジ動きベクトルを確定する時に、具体的に、
前記中心動きベクトル(x,y)を異なる方向にSだけシフトし、異なる方向のエッジ動きベクトル(x,y+S)と、エッジ動きベクトル(x,y-S)と、エッジ動きベクトル(x+S,y)と、エッジ動きベクトル(x-S,y)と、エッジ動きベクトル(x+right,y+down)とを順次得ること、又は、
前記中心動きベクトル(x、y)を異なる方向にSだけシフトし、異なる方向のエッジ動きベクトル(x、y-S)と、エッジ動きベクトル(x、y+S)と、エッジ動きベクトル(x-S、y)と、エッジ動きベクトル(x+S、y)と、エッジ動きベクトル(x+right、y+down)とを順次得ること、に用いられ、
エッジ動きベクトル(x+right,y+down)のデフォルト値は(x-S,y-S)であり、
エッジ動きベクトル(x+S、y)のコスト値がエッジ動きベクトル(x-S、y)のコスト値より小さい場合、rightはSであり、エッジ動きベクトル(x、y+S)のコスト値がエッジ動きベクトル(x、y-S)のコスト値より小さい場合、downはSであり、又は、エッジ動きベクトル(x+S、y)のコスト値がエッジ動きベクトル(x-S、y)のコスト値以下の場合、rightはSであり、エッジ動きベクトル(x、y+S)のコスト値がエッジ動きベクトル(x、y-S)のコスト値以下の場合、downはSである。
前記処理モジュール92は、前記第1の画素値及び前記第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得する時に、具体的に、
ダウンサンプリングされていない第1の画素値及びダウンサンプリングされていない第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得すること、又は、
前記第1の画素値に対してダウンサンプリング操作を行い、前記第2の画素値に対してダウンサンプリング操作を行い、ダウンサンプリングされた第1の画素値及びダウンサンプリングされた第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得すること、又は、
前記第1の画素値に対してシフト及びダウンサンプリング操作を行い、前記第2の画素値に対してシフト及びダウンサンプリング操作を行い、処理された第1の画素値及び処理された第2の画素値に基づいて、前記中心動きベクトルに対応する第1のコスト値及び前記エッジ動きベクトルに対応する第2のコスト値を取得すること、に用いられる。
前記処理モジュール92は、前記第1の画素値及び前記第2の画素値に基づいて、前記サブブロックの第1の整数画素の動きベクトル調整値及び第2の整数画素の動きベクトル調整値と、前記サブブロックの第1のサブ画素の動きベクトル調整値及び第2のサブ画素の動きベクトル調整値とを確定する時に、具体的に、
前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルを中心として、周囲の動きベクトルから一部又は全ての動きベクトルを選択し、選択された動きベクトルを候補動きベクトルとすることと、
前記第1の画素値及び前記第2の画素値に基づいて、前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトルに対応する第3のコスト値及び前記候補動きベクトルに対応する第4のコスト値を取得することと、
前記第3のコスト値及び前記第4のコスト値に基づいて、最適動きベクトルとして、前記第1のオリジナル動きベクトル又は第2のオリジナル動きベクトル及び前記候補動きベクトルから1つの動きベクトルを選択することと、
前記最適動きベクトルに基づいて、前記サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定し、前記最適動きベクトルに基づいて、前記サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定することと、に用いられる。
前記処理モジュール92は、前記最適動きベクトルに基づいて前記サブブロックの第1の整数画素動きベクトル調整値及び第2の整数画素動きベクトル調整値を確定する時に、具体的に、前記最適動きベクトル及び前記第1のオリジナル動きベクトルに基づいて、前記サブブロックの第1の整数画素動きベクトル調整値を確定し、前記第1の整数画素動きベクトル調整値に基づいて、前記サブブロックの第2の整数画素動きベクトル調整値を確定すること、に用いられる。
前記処理モジュール92は、前記最適動きベクトルに基づいて前記サブブロックの第1のサブ画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値を確定する時に、具体的に、前記最適動きベクトルに対応するコスト値及び前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、前記サブブロックの第1のサブ画素動きベクトル調整値を確定し、第1のサブ画素動きベクトル調整値に基づいて、前記サブブロックの第2のサブ画素動きベクトル調整値を確定すること、に用いられる。
前記コーデックモジュール93は、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて前記現在のブロックを符号化又は復号化する時に、具体的に、前記現在のブロックが少なくとも1つのサブブロックを含む場合、前記現在のブロックの各サブブロックに対して、前記サブブロックの第1の目標動きベクトルに基づいて前記サブブロックに対応する第3の参照ブロックを確定し、前記サブブロックの第2の目標動きベクトルに基づいて前記サブブロックに対応する第4の参照ブロックを確定することと、前記第3の参照ブロックの第3の画素値及び前記第4の参照ブロックの第4の画素値に基づいて、重み付けを行い、サブブロックの予測値を得ることと、各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することと、に用いられる。
前記コーデックモジュール93は、前記サブブロックの第1の目標動きベクトルに基づいて前記サブブロックに対応する第3の参照ブロックを確定し、前記サブブロックの第2の目標動きベクトルに基づいて前記サブブロックに対応する第4の参照ブロックを確定する時に、具体的に、前記サブブロックの第1の目標動きベクトルに基づいて、第1の参照フレームから前記サブブロックに対応する第5の参照ブロックを確定し、前記第5の参照ブロックにおける画素値を補間し、前記第3の参照ブロックを得ることと、
前記サブブロックの第2の目標動きベクトルに基づいて、第2の参照フレームから前記サブブロックに対応する第6の参照ブロックを確定し、前記第6の参照ブロックにおける画素値を補間し、前記第4の参照ブロックを得ることと、に用いられる。
前記コーデックモジュール93は、前記サブブロックの第1の目標動きベクトルに基づいて前記サブブロックに対応する第3の参照ブロックを確定し、前記サブブロックの第2の目標動きベクトルに基づいて前記サブブロックに対応する第4の参照ブロックを確定する時に、具体的に、前記サブブロックの第1の目標動きベクトルに基づいて、第1の参照フレームから前記サブブロックに対応する第7の参照ブロックを確定し、前記第7の参照ブロックにおける画素値を利用して第8の参照ブロックを構築し、前記第8の参照ブロックにおける画素値を補間し、前記第3の参照ブロックを得ることと、前記サブブロックの第2の目標動きベクトルに基づいて、第2の参照フレームから前記サブブロックに対応する第9の参照ブロックを確定し、前記第9の参照ブロックにおける画素値を利用して第10の参照ブロックを構築し、前記第10の参照ブロックにおける画素値を補間し、前記第4の参照ブロックを得ることと、に用いられる。
前記装置は、さらに、前記現在のブロックのために、前記第1の目標動きベクトル及び第2の目標動きベクトルを格納する、記憶モジュールを含み、前記第1の目標動きベクトル及び第2の目標動きベクトルは、現在のフレームのループフィルタリングに用いられ、前記第1の目標動きベクトル及び前記第2の目標動きベクトルは後続のフレームの時間領域の参照に用いられ、及び/又は、前記第1の目標動きベクトル及び前記第2の目標動きベクトルは、現在のフレームの空間領域の参照に用いられる。
実施例39:
本願の実施例に係る復号化デバイスは、ハードウェア的に、そのハードウェア構成模式図について、具体的に図10を参照できる。前記復号化デバイスは、プロセッサ101と機械可読記憶媒体102とを含み、前記機械可読記憶媒体102は前記プロセッサ101によって実行可能な機械実行可能な命令を格納し、前記プロセッサ101は、機械実行可能な命令を実行し、本願の上記例示で開示された方法を実現する。例えば、プロセッサは、機械実行可能な命令を実行することに用いられ、
現在のブロックの特徴情報が特定の条件を満たす場合、前記現在のブロックの第1のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第2の参照ブロックを確定するステップと、前記第1の参照ブロックの第1の画素値及び前記第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得るステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記現在のブロックを復号化するステップと、を実現する。
本願の実施例に係る符号化デバイスは、ハードウェア的に、そのハードウェア構成模式図は、具体的に図11を参照できる。前記符号化デバイスは、プロセッサ111及び機械可読記憶媒体112を含み、前記機械可読記憶媒体112は前記プロセッサ111によって実行可能な機械実行可能な命令を格納し、前記プロセッサ111は、機械実行可能な命令を実行し、本願の上記例示で開示された方法を実現する。例えば、プロセッサ111は、機械実行可能な命令を実行することに用いられ、現在のブロックの特徴情報が特定の条件を満たす場合、前記現在のブロックの第1のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第1の参照ブロックを確定し、前記現在のブロックの第2のオリジナル動きベクトルに基づいて、前記現在のブロックに対応する第2の参照ブロックを確定するステップと、前記第1の参照ブロックの第1の画素値及び前記第2の参照ブロックの第2の画素値に基づいて、第1のオリジナル動きベクトルと第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルと、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルとを得るステップと、前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて前記現在のブロックを符号化するステップと、を実現する。
上記方法と同様な発明概念に基づいて、本願の実施例は、さらに、機械可読記憶媒体を提供する。前記機械可読記憶媒体には、複数のコンピュータ命令が格納されており、前記コンピュータ命令がプロセッサによって実行されると、本願の上記例示で開示されたコーデック方法を実現できる。ここで、上記機械可読記憶媒体は、任意の電気、磁気、光学又は他の物理的記憶装置であってよく、例えば実行可能な命令、データ等の情報を含むか又は格納できる。例えば、機械可読記憶媒体は、RAM(Random Access Memory、ランダムアクセスメモリ)、揮発性メモリ、不揮発性メモリ、フラッシュメモリ、メモリドライブ(例えばハードディスクドライブ)、ソリッドステートドライブ、任意のタイプのメモリディスク(例えば光ディスク、DVD等)、あるいは、類似の記憶媒体、又はそれらの組み合わせであってもよい。
上記実施例に説明されたシステム、装置、モジュール又はユニットは、具体的にはコンピュータチップ又はエンティティで実現されてもよく、又はある機能を有する製品で実現されてもよい。典型的な実現するデバイスは、コンピュータであり、コンピュータは、具体的に、パーソナルコンピュータ、ラップトップコンピュータ、携帯電話、カメラ付き携帯電話、スマートフォン、携帯情報端末、メディアプレーヤ、ナビゲーションデバイス、電子メール送受信デバイス、ゲームコンソール、タブレットコンピュータ、ウェアラブルデバイス、又はこれらのデバイスの任意のいくつかの組み合わせであってもよい。
説明の便宜上、以上の装置を説明する時に、機能により、様々な要素に分けてそれぞれ説明した。勿論、本願を実施する時に、同一又は複数のソフトウェア及び/又はハードウェアで、各要素の機能を実現できる。
当業者であれば、本願の実施例は方法、システム、又はコンピュータプログラム製品として提供できることを理解できる。従って、本願は、完全にハードウェアの実施例、完全にソフトウェアの実施例、又はソフトウェアとハードウェアを組み合わせた実施例の形態であってもよい。さらに、本願の実施例は、コンピュータに使用可能なプログラムコードを含む1つ又は複数のコンピュータ使用可能な記憶媒体(ディスクメモリ、CD-ROM、光学メモリなど)に実装されるコンピュータプログラム製品の形であってもよい。
本願は、本願の実施例係る方法、デバイス(システム)、及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して説明されるものである。フローチャート図及び/又はブロック図における各処理及び/又は各ブロック、そしてフローチャート図及び/又はブロック図における処理及び/又はブロックの組み合わせは、コンピュータプログラム命令で実現できることが理解される。これらのコンピュータプログラム命令を汎用コンピュータ、専用コンピュータ、組み込みプロセッサ、又は他のプログラミング可能なデータ処理デバイスのプロセッサに提供して1つの機械を生成できて、コンピュータ又は他のプログラミング可能なデータ処理デバイスのプロセッサによって実行される命令がフローチャートの1つ又は複数の処理及び/又はブロック図の1つ又は複数のブロックに指定された機能を実現するための装置を生成するように構成される。
また、これらのコンピュータプログラム命令はコンピュータ又は他のプログラミング可能なデータ処理デバイスにおける特定の方式で動作するコンピュータ可読メモリに記憶されることができて、当該コンピュータ可読メモリに記憶された命令が、命令装置を含む製品を生成し、当該命令装置がフローチャートの1つ又は複数の処理及び/又はブロック図の1つ又は複数のブロックに指定された機能を実現するように構成される。
これらのコンピュータプログラム命令はコンピュータ又は他のプログラミング可能なデータ処理デバイスにインストールされることができて、コンピュータ又は他のプログラミング可能なデータ処理デバイスで一連の処理ステップを実行してコンピュータで処理を実現することで、コンピュータ又は他のプログラミング可能なデータ処理デバイスで実行される命令がフローチャートの1つ又は複数の処理及び/又はブロック図の1つ又は複数のブロックに指定された機能を実現するように構成される。
以上は本願の実施例に過ぎず、本願を限定するものではない。当業者にとって、本願に対して様々な変更及び変化を行うことができる。本願の精神及び原理を逸脱しない範囲で行われる任意の変更、等価置換、改良等は、いずれも本願の特許請求の範囲内に含まれる。

Claims (14)

  1. 現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを含む、復号化方法であって、
    前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
    第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
    前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
    前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、
    前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
    前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、
    前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、
    を含み、
    前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
    前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
    復号化方法。
  2. 前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することにおいて、
    候補動きベクトルに対応するコスト値を取得することは、
    第1の参照ブロックに基づいて、前記候補動きベクトルに対応する第1のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記候補動きベクトルに対応する第2のサブ参照ブロックを確定することと、
    垂直2倍のダウンサンプリングを行い、前記第1の参照ブロック及び前記第2の参照ブロックの各画素値の差分絶対値和を取得することと、
    取得した差分絶対値和に基づいて、前記候補動きベクトルに対応するコスト値を確定することと、を含み、
    オリジナル動きベクトルに対応するコスト値を取得することは、
    第1の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第3のサブ参照ブロックを確定し、第2の参照ブロックに基づいて、前記オリジナル動きベクトルに対応する第4のサブ参照ブロックを確定することと、
    垂直2倍のダウンサンプリングを行い、前記第1のサブ参照ブロック及び前記第2のサブ参照ブロックの各画素値の差分絶対値和を取得することと、
    取得した差分絶対値和に基づいて、前記オリジナル動きベクトルに対応するコスト値を確定することと、を含む、
    請求項1に記載の復号化方法。
  3. 前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、
    前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することと、
    前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、
    前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクト
    ルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することと、を含み、
    前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第2の整数画素動きベクトル調整値とを確定することは、
    前記最適動きベクトルに基づいて、前記最適動きベクトルと前記オリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、
    前記第1の整数画素動きベクトル調整値に基づいて、第2の整数画素動きベクトル調整値を確定し、前記第2の整数画素動きベクトル調整値と前記第1の整数画素動きベクトル調整値とは互いに反数であることと、を含み、
    前記第1の整数画素動きベクトル調整値に基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトルを取得することと、前記第2の整数画素動きベクトル調整値に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得することとは、
    前記第1の目標動きベクトルは、前記第1のオリジナル動きベクトルと前記第1の整数画素動きベクトル調整値との和であることと、
    前記第2の目標動きベクトルは、前記第2のオリジナル動きベクトルと前記第2の整数画素動きベクトル調整値との和であることと、を含む、
    請求項1に記載の復号化方法。
  4. 前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、
    前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値と、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値とを確定することと、
    第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値に基づいて、第1のオリジナル動きベクトルを調整し、サブブロックの第1の目標動きベクトルを取得することと、
    第2の整数画素動きベクトル調整値及び第2のサブ画素動きベクトル調整値に基づいて、第2のオリジナル動きベクトルを調整し、サブブロックの第2の目標動きベクトルを取得することと、を含み、
    前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することは、
    前記最適動きベクトルに基づいて、前記最適動きベクトルと前記第1のオリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、
    前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することと、を含み、
    前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することは、
    前記最適動きベクトルを中心とした5つの整数画素動きベクトルのコスト値を順次に確定し、前記5つの整数画素動きベクトルは、前記最適動きベクトルを中心として、それぞれ、水平に左へ、水平に右へ、垂直に上へ、垂直に下へシフトするにより取得した5つのエッジ動きベクトルであることと、
    前記5つの整数画素動きベクトルのコスト値に基づいて、前記第1のサブ画素動きベクトル調整値を確定することと、を含む、
    請求項1に記載の復号化方法。
  5. 前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップは、
    前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することと、
    第1の整数画素動きベクトル調整値及び第1のサブ画素動きベクトル調整値を基づいて、最適オフセット動きベクトルを取得することと、
    前記最適オフセット動きベクトルに基づいて、前記第1のオリジナル動きベクトルを調整し、前記第1の目標動きベクトルを取得することと、
    前記最適オフセット動きベクトルの反数に基づいて、前記第2のオリジナル動きベクトルを調整し、前記第2の目標動きベクトルを取得することと、を含み、
    前記最適動きベクトルに基づいて、第1の整数画素動きベクトル調整値と第1のサブ画素動きベクトル調整値とを確定することは、
    前記最適動きベクトルに基づいて、前記最適動きベクトルと前記第1のオリジナル動きベクトルとの差である第1の整数画素動きベクトル調整値を確定することと、
    前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することと、を含み、
    前記最適動きベクトルに対応するコスト値、前記最適動きベクトルに対応するエッジ動きベクトルに対応するコスト値に基づいて、第1のサブ画素動きベクトル調整値を確定することは、
    前記最適動きベクトルを中心とした5つの整数画素動きベクトルのコスト値を順次に確定し、前記5つの整数画素動きベクトルは、前記最適動きベクトルを中心として、それぞれ、水平に左へ、水平に右へ、垂直に上へ、垂直に下へシフトするにより取得した5つのエッジ動きベクトルであることと、
    前記5つの整数画素動きベクトルのコスト値に基づいて、前記第1のサブ画素動きベクトル調整値を確定することと、を含む、
    請求項1に記載の復号化方法。
  6. 第1の目標動きベクトルは、第1のオリジナル動きベクトルと、第1の整数画素動きベクトル調整値と、第1のサブ画素動きベクトル調整値との和であることと、
    第2の目標動きベクトルは、第2のオリジナル動きベクトルと、第2の整数画素動きベクトル調整値と、第2のサブ画素動きベクトル調整値との和であることと、
    前記第2の整数画素動きベクトル調整値と、前記第1の整数画素動きベクトル調整値とは、互いに反数であることと、
    前記第2のサブ画素動きベクトル調整値と、前記第1のサブ画素動きベクトル調整値とは、互いに反数であることと、を特徴とする、
    請求項4に記載の復号化方法。
  7. 前記最適動きベクトルは、前記オリジナル動きベクトル及び各候補動きベクトルから選択されたコスト値が最も小さい動きベクトルであること、を特徴とする、
    請求項1に記載の復号化方法。
  8. 前記現在のブロックが1つのサブブロックのみを含む場合、当該サブブロックは現在のブロック自体であること、を特徴とする、
    請求項1に記載の復号化方法。
  9. 現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記
    現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを含む、符号化方法であって、
    前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
    第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
    前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
    前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、
    前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
    前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含み、
    前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
    前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
    符号化方法。
  10. プロセッサと、前記プロセッサによって実行可能な機械実行可能な命令を格納する機械可読記憶媒体とを含み、
    前記プロセッサは、機械実行可能な命令を実行することで、
    請求項1~8のいずれか1項に記載の方法を実現する
    復号化デバイス。
  11. プロセッサと、前記プロセッサによって実行可能な機械実行可能な命令を格納する機械可読記憶媒体とを含み、前記プロセッサは、機械実行可能な命令を実行することで、現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを、実現する符号化デバイスであって、
    前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
    第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
    前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
    前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、最適動きベクトルを取得するステップであって、前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含むステップと、
    前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
    前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含み、
    前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
    前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
    符号化デバイス。
  12. 請求項1~8のいずれか1項に記載の方法を実現できるように構成された
    復号化装置。
  13. 現在のブロックに対して動きベクトルリファインメントモードを有効にする場合、前記現在のブロックに含まれる各サブブロックの予測値を確定し、前記現在のブロックに含まれる各サブブロックの予測値に基づいて、前記現在のブロックの予測値を確定することを、実現できるように構成された、符号化装置であって、
    前記現在のブロックに含まれるサブブロックのそれぞれに対して、予測値を確定することは、
    第1の参照フレームおよび第1のオリジナル動きベクトルと、第2の参照フレームおよび第2のオリジナル動きベクトルとを含む前記現在のブロックの動き情報を取得するステップと、
    前記現在のブロックの第1のオリジナル動きベクトルに基づいて前記サブブロックに対応する第1の参照ブロックを確定し、現在のブロックの第2のオリジナル動きベクトルに基づいて前記サブブロックに対応する第2の参照ブロックを確定するステップと、
    前記第1のオリジナル動きベクトル又は前記第2のオリジナル動きベクトルであるオリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することと、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記オリジナル動きベクトルに対応するコスト値と前記候補動きベクトルに対応するコスト値とを取得することと、前記オリジナル動きベクトルに対応するコスト値及び前記候補動きベクトルに対応するコスト値に基づいて、最適動きベクトルとして、前記オリジナル動きベクトルと前記候補動きベクトルとの中から1つの動きベクトルを選択することと、を含む、前記第1の参照ブロックの画素値及び前記第2の参照ブロックの画素値に基づいて、前記最適動きベクトルを取得するステップと、
    前記最適動きベクトルに基づいて、前記第1のオリジナル動きベクトルと前記第2のオリジナル動きベクトルとを調整し、前記第1のオリジナル動きベクトルに対応する第1の目標動きベクトル及び前記第2のオリジナル動きベクトルに対応する第2の目標動きベクトルを取得するステップと、
    前記第1の目標動きベクトル及び前記第2の目標動きベクトルに基づいて、前記サブブロックの予測値を確定するステップであって、前記第1の目標動きベクトルに基づいて、前記サブブロックに対応する第3の参照ブロックを確定し、前記第2の目標動きベクトルに基づいて、前記サブブロックに対応する第4の参照ブロックを確定することと、第3の参照ブロックの画素値及び第4の参照ブロックの画素値に基づいて重み付けを行い、前記サブブロックの予測値を取得することと、を含むステップと、を含み、
    前記オリジナル動きベクトルを中心として、前記オリジナル動きベクトルの周囲にある前記オリジナル動きベクトルを含む動きベクトルから動きベクトルを選択して候補動きベクトルと確定することは、
    前記オリジナル動きベクトルを中心として、探索範囲を2とし、前記オリジナル動きベクトル含む25個の動きベクトルを探索し、前記25個の動きベクトルを候補動きベクトルと確定することを含み、前記25個の動きベクトルの探索順序は、{Mv(-2,-2)、Mv(-1,-2)、Mv(0,-2)、Mv(1、-2)、Mv(2、-2)、Mv(-2、-1)、Mv(-1、-1)、Mv(0、-1)、Mv(1、-1)、Mv(2、-1)、Mv(-2、0)、Mv(-1、0)、Mv(0、0)、Mv(1、0)、Mv(2、0)、Mv(-2、1)、Mv(-1、1)、Mv(0、1)、Mv(1、1)、Mv(2、1)、Mv(-2、2)、Mv(-1、2)、Mv(0、2)、Mv(1、2)、Mv(2、2)}である、
    符号化装置。
  14. プロセッサによって実行されると、前記プロセッサに請求項1~8のいずれか1項に記載の方法を実現させるコンピュータ命令が格納される、機械可読記憶媒体。
JP2021552234A 2019-03-11 2020-03-11 コーデック方法及び装置、符号化デバイス及び復号化デバイス Active JP7311619B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023111468A JP2023126940A (ja) 2019-03-11 2023-07-06 コーデック方法及び装置、符号化デバイス及び復号化デバイス

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910182197.8 2019-03-11
CN201910182197.8A CN111698509B (zh) 2019-03-11 2019-03-11 一种编解码方法、装置及其设备
PCT/CN2020/078849 WO2020182161A1 (zh) 2019-03-11 2020-03-11 编解码方法与装置、编码端设备和解码端设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023111468A Division JP2023126940A (ja) 2019-03-11 2023-07-06 コーデック方法及び装置、符号化デバイス及び復号化デバイス

Publications (2)

Publication Number Publication Date
JP2022522376A JP2022522376A (ja) 2022-04-18
JP7311619B2 true JP7311619B2 (ja) 2023-07-19

Family

ID=68084067

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021552234A Active JP7311619B2 (ja) 2019-03-11 2020-03-11 コーデック方法及び装置、符号化デバイス及び復号化デバイス
JP2023111468A Pending JP2023126940A (ja) 2019-03-11 2023-07-06 コーデック方法及び装置、符号化デバイス及び復号化デバイス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023111468A Pending JP2023126940A (ja) 2019-03-11 2023-07-06 コーデック方法及び装置、符号化デバイス及び復号化デバイス

Country Status (12)

Country Link
US (1) US11902563B2 (ja)
EP (1) EP3941056A4 (ja)
JP (2) JP7311619B2 (ja)
KR (1) KR102619925B1 (ja)
CN (67) CN112468812B (ja)
AU (1) AU2020236452B2 (ja)
BR (1) BR112021017777A2 (ja)
CA (2) CA3131447C (ja)
MX (1) MX2021010608A (ja)
SG (1) SG11202109366VA (ja)
WO (3) WO2020182161A1 (ja)
ZA (2) ZA202106161B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112468812B (zh) 2019-03-11 2022-07-01 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
JP7456441B2 (ja) * 2019-06-11 2024-03-27 ソニーグループ株式会社 画像処理装置及び画像処理方法
CN112135127B (zh) * 2019-11-05 2021-09-21 杭州海康威视数字技术股份有限公司 一种编解码方法、装置、设备及机器可读存储介质
CN112135145B (zh) * 2019-11-14 2022-01-25 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
EP4072135A4 (en) * 2019-12-02 2023-06-21 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD FOR PREDICTING ATTRIBUTE INFORMATION, ENCODER, DECODER AND STORAGE MEDIA
CN113709500B (zh) * 2019-12-23 2022-12-23 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113709460B (zh) * 2020-03-25 2023-03-24 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN113766222B (zh) * 2020-06-01 2023-03-24 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN112738522A (zh) * 2020-12-17 2021-04-30 腾讯科技(深圳)有限公司 视频编码方法、装置
CN114650423B (zh) * 2020-12-30 2022-12-23 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN116156174B (zh) * 2023-02-23 2024-02-13 格兰菲智能科技有限公司 数据编码处理方法、装置、计算机设备和存储介质
CN116074533B (zh) * 2023-04-06 2023-08-22 湖南国科微电子股份有限公司 运动矢量预测方法、系统、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018121506A1 (en) 2016-12-27 2018-07-05 Mediatek Inc. Method and apparatus of bilateral template mv refinement for video coding
JP2020053723A (ja) 2018-09-21 2020-04-02 Kddi株式会社 画像復号装置、画像符号化装置、画像処理システム及びプログラム

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5778190A (en) * 1995-07-21 1998-07-07 Intel Corporation Encoding video signals using multi-phase motion estimation
KR100774296B1 (ko) * 2002-07-16 2007-11-08 삼성전자주식회사 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치
CN1181691C (zh) * 2003-01-24 2004-12-22 杭州国芯科技有限公司 视频运动估计方法
CN1225127C (zh) * 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
KR20050045746A (ko) 2003-11-12 2005-05-17 삼성전자주식회사 계층 구조의 가변 블록 크기를 이용한 움직임 추정 방법및 장치
EP1578137A2 (en) * 2004-03-17 2005-09-21 Matsushita Electric Industrial Co., Ltd. Moving picture coding apparatus with multistep interpolation process
US20050259878A1 (en) 2004-05-20 2005-11-24 Broadcom Corporation Motion estimation algorithm
EP1662799A3 (en) * 2004-11-30 2012-05-30 Humax Co., Ltd. Video down-sampling transcoding method and device
JP2006279573A (ja) * 2005-03-29 2006-10-12 Sanyo Electric Co Ltd 符号化装置と方法、ならびに復号装置と方法
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8750387B2 (en) * 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
JP2008011158A (ja) * 2006-06-29 2008-01-17 Matsushita Electric Ind Co Ltd 動きベクトル探索方法及び動きベクトル探索装置
CN101188772B (zh) * 2006-11-17 2010-09-22 中兴通讯股份有限公司 一种视频解码的时域错误隐蔽方法
US8315466B2 (en) * 2006-12-22 2012-11-20 Qualcomm Incorporated Decoder-side region of interest video processing
KR101403343B1 (ko) * 2007-10-04 2014-06-09 삼성전자주식회사 부화소 움직임 추정을 이용한 인터 예측 부호화, 복호화방법 및 장치
CN101477690B (zh) * 2008-12-30 2011-04-27 清华大学 一种视频帧序列中物体轮廓跟踪的方法和装置
US9654792B2 (en) * 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
KR20110017302A (ko) * 2009-08-13 2011-02-21 삼성전자주식회사 움직임 벡터의 정확도 조절을 이용한 영상 부호화, 복호화 방법 및 장치
CN101699865B (zh) * 2009-10-28 2011-06-01 山东大学 一种块运动自适应的亚像素快速搜索方法
US8315310B2 (en) 2010-01-08 2012-11-20 Research In Motion Limited Method and device for motion vector prediction in video transcoding using full resolution residuals
KR101768207B1 (ko) 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
CN101815218B (zh) * 2010-04-02 2012-02-08 北京工业大学 基于宏块特征的快速运动估计视频编码方法
US9300970B2 (en) * 2010-07-09 2016-03-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding motion vector
CN102316317B (zh) * 2010-07-10 2013-04-24 华为技术有限公司 一种生成图像预测值的方法和装置
CN101895762A (zh) * 2010-07-30 2010-11-24 天津大学 基于零检测和矢量滤波的帧频提升算法
CN102387360B (zh) * 2010-09-02 2016-05-11 乐金电子(中国)研究开发中心有限公司 视频编解码帧间图像预测方法及视频编解码器
SG10201506682SA (en) * 2010-09-30 2015-10-29 Mitsubishi Electric Corp Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
PL2661892T3 (pl) * 2011-01-07 2022-08-16 Nokia Technologies Oy Przewidywanie ruchu w kodowaniu wideo
EP2479994B1 (en) * 2011-01-19 2017-03-15 BlackBerry Limited Method and device for improved multi-layer data compression
CN102611886A (zh) 2011-01-22 2012-07-25 华为技术有限公司 一种运动预测或补偿方法
CN102685504B (zh) * 2011-03-10 2015-08-19 华为技术有限公司 视频图像的编解码方法、编码装置、解码装置及其系统
KR101242560B1 (ko) * 2011-03-30 2013-03-19 한양대학교 산학협력단 탐색 영역 조정 장치 및 방법
JP5786478B2 (ja) * 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
CN102447904A (zh) * 2011-10-24 2012-05-09 成都虢电智能电力科技有限公司 一种快速对视频序列进行运动估计的方法
CN102395030B (zh) * 2011-11-18 2014-05-07 杭州海康威视数字技术股份有限公司 基于视频压缩码流的运动分析方法、码流转换方法及其装置
CN103260020A (zh) * 2012-02-18 2013-08-21 张新安 一种avs-m视频编码快速整像素运动估计方法
CN102769748B (zh) * 2012-07-02 2014-12-24 华为技术有限公司 运动矢量预测方法、装置及系统
CN102833583B (zh) * 2012-07-27 2015-07-01 北京视博云科技有限公司 一种视频图像的处理方法及装置
US9357195B2 (en) * 2012-08-16 2016-05-31 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
KR101975206B1 (ko) * 2012-11-23 2019-05-07 삼성전자주식회사 시간상 연속하는 물체의 움직임들에 대응하는 이미지 데이터들을 프로세싱하는 방법 및 장치
KR101560186B1 (ko) * 2013-03-18 2015-10-14 삼성전자주식회사 움직임 예측에 있어 적응적 탐색 범위 결정을 이용한 부호화, 복호화 방법 및 장치
CN103297778B (zh) * 2013-05-27 2017-04-19 华为技术有限公司 一种对图像进行编、解码的方法及设备
CN104244002B (zh) * 2013-06-14 2019-02-05 北京三星通信技术研究有限公司 一种视频编/解码中运动信息的获取方法及装置
CN103338377A (zh) * 2013-07-11 2013-10-02 青岛海信信芯科技有限公司 用于确定运动估计中最优运动矢量的方法
US20150036747A1 (en) 2013-07-30 2015-02-05 Electronics And Telecommunications Research Institute Encoding and decoding apparatus for concealing error in video frame and method using same
CN104427345B (zh) * 2013-09-11 2019-01-08 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
US10009629B2 (en) * 2013-10-11 2018-06-26 Sony Corporation Video coding system with search range and method of operation thereof
CN103974077B (zh) * 2014-05-14 2017-04-19 东南大学 一种用于h.264编码的整数运动估计快速搜索方法
CN105493505B (zh) * 2014-06-19 2019-08-06 微软技术许可有限责任公司 统一的帧内块复制和帧间预测模式
US10412387B2 (en) * 2014-08-22 2019-09-10 Qualcomm Incorporated Unified intra-block copy and inter-prediction
US11477477B2 (en) 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
CN107809642B (zh) 2015-02-16 2020-06-16 华为技术有限公司 用于视频图像编码和解码的方法、编码设备和解码设备
US10200711B2 (en) 2015-03-27 2019-02-05 Qualcomm Incorporated Motion vector derivation in video coding
CN106331703B (zh) * 2015-07-03 2020-09-08 华为技术有限公司 视频编码和解码方法、视频编码和解码装置
EP3319317B1 (en) * 2015-07-30 2021-04-28 Huawei Technologies Co., Ltd. Video encoding and decoding method and device
EP3340620A4 (en) * 2015-08-23 2019-04-17 LG Electronics Inc. IMAGE PROCESSING METHOD BASED ON INTER-PREDICTION MODE AND APPARATUS THEREOF
WO2017036399A1 (en) * 2015-09-02 2017-03-09 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
EP3364655A4 (en) * 2015-11-11 2018-10-10 Samsung Electronics Co., Ltd. Method and apparatus for decoding video, and method and apparatus for encoding video
CN105681807B (zh) * 2016-01-06 2018-11-02 福州瑞芯微电子股份有限公司 一种基于h264协议的分像素运动矢量计算方法和装置
US11153600B2 (en) 2016-02-08 2021-10-19 Sharp Kabushiki Kaisha Motion vector generation device, prediction image generation device, video decoding device, and video coding device
US10368083B2 (en) * 2016-02-15 2019-07-30 Qualcomm Incorporated Picture order count based motion vector pruning
CN105939475A (zh) * 2016-06-06 2016-09-14 中国矿业大学 一种高质量边信息生成方法
CN116708784A (zh) 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
US10136155B2 (en) * 2016-07-27 2018-11-20 Cisco Technology, Inc. Motion compensation using a patchwork motion field
US10880570B2 (en) 2016-10-05 2020-12-29 Qualcomm Incorporated Systems and methods of adaptively determining template size for illumination compensation
KR102435500B1 (ko) * 2016-10-06 2022-08-23 세종대학교산학협력단 비디오 신호의 복호화 방법 및 이의 장치
CN108134939B (zh) * 2016-12-01 2020-08-07 北京金山云网络技术有限公司 一种运动估计方法及装置
JP2018093346A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
US10750203B2 (en) * 2016-12-22 2020-08-18 Mediatek Inc. Method and apparatus of adaptive bi-prediction for video coding
WO2018113658A1 (en) * 2016-12-22 2018-06-28 Mediatek Inc. Method and apparatus of motion refinement for video coding
US11051033B2 (en) * 2017-01-04 2021-06-29 Samsung Electronics Co., Ltd. Video decoding method and apparatus and video encoding method and apparatus
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
CN108419082B (zh) * 2017-02-10 2020-09-11 北京金山云网络技术有限公司 一种运动估计方法及装置
CN107027029B (zh) * 2017-03-01 2020-01-10 四川大学 基于帧率变换的高性能视频编码改进方法
CN106878737B (zh) * 2017-03-02 2019-10-08 西安电子科技大学 高效视频编码中的运动估计加速方法
US10805630B2 (en) * 2017-04-28 2020-10-13 Qualcomm Incorporated Gradient based matching for motion search and derivation
CN109005412B (zh) * 2017-06-06 2022-06-07 北京三星通信技术研究有限公司 运动矢量获取的方法及设备
US10477237B2 (en) * 2017-06-28 2019-11-12 Futurewei Technologies, Inc. Decoder side motion vector refinement in video coding
CN109218733B (zh) * 2017-06-30 2022-03-29 华为技术有限公司 一种确定预测运动矢量预测的方法以及相关设备
WO2019001741A1 (en) 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION
CN117615153A (zh) * 2017-08-29 2024-02-27 株式会社Kt 视频解码和编码方法及用于存储压缩视频数据的装置
WO2019084801A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 运动估计方法和装置
CN108259912A (zh) * 2018-03-28 2018-07-06 天津大学 一种分像素运动估计的并行实现方法
CN108848380B (zh) * 2018-06-20 2021-11-30 腾讯科技(深圳)有限公司 视频编码和解码方法、装置、计算机设备及存储介质
CN108833923B (zh) * 2018-06-20 2022-03-29 腾讯科技(深圳)有限公司 视频编码、解码方法、装置、存储介质和计算机设备
CN115250350B (zh) * 2018-09-03 2024-04-09 华为技术有限公司 运动矢量的获取方法、装置、计算机设备及存储介质
CN112468812B (zh) * 2019-03-11 2022-07-01 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018121506A1 (en) 2016-12-27 2018-07-05 Mediatek Inc. Method and apparatus of bilateral template mv refinement for video coding
JP2020053723A (ja) 2018-09-21 2020-04-02 Kddi株式会社 画像復号装置、画像符号化装置、画像処理システム及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Fangdong Chen, and Li Wang,CE9: Unidirectional Template based DMVR and its Combination with Simplified Bidirectional DMVR (Test 9.2.10 and Test 9.2.11),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-L0188_v3,12th Meeting: Macao, CN,2018年10月,pp.1-5
Jianle Chen, Yan Ye, and Seung Hwan Kim,Algorithm description for Versatile Video Coding and Test Model 4 (VTM 4),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M1002-v1,13th Meeting: Marrakech, MA,2019年02月,pp.35-38
Semih Esenlik, et al.,CE9: DMVR with Motion Vector Difference Mirroring (Test 1.6),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0216-v3,11th Meeting: Ljubljana, SI,2018年07月,pp.1-5

Also Published As

Publication number Publication date
CN112954342A (zh) 2021-06-11
CN112492308A (zh) 2021-03-12
CN112954342B (zh) 2022-01-25
CN112954340B (zh) 2022-08-26
CN112866699B (zh) 2022-11-01
CN112866709B (zh) 2022-07-29
CN112954340A (zh) 2021-06-11
CN112866707A (zh) 2021-05-28
CN112866705B (zh) 2022-08-26
CN112532983A (zh) 2021-03-19
CN112468809A (zh) 2021-03-09
CN112866698A (zh) 2021-05-28
CN112954330A (zh) 2021-06-11
CN112672156B (zh) 2022-07-29
CN112969072B (zh) 2022-08-26
CN112511831A (zh) 2021-03-16
CN112954339A (zh) 2021-06-11
CN113709465A (zh) 2021-11-26
CN113709467B (zh) 2022-11-01
CN112866701A (zh) 2021-05-28
CA3131447C (en) 2024-03-19
CN112866709A (zh) 2021-05-28
CN113709469A (zh) 2021-11-26
CN112866699A (zh) 2021-05-28
CN113709468A (zh) 2021-11-26
CN112866698B (zh) 2022-08-26
MX2021010608A (es) 2021-09-28
CN112565759A (zh) 2021-03-26
CN112969071B (zh) 2022-08-26
SG11202109366VA (en) 2021-09-29
CN112954341A (zh) 2021-06-11
CA3131447A1 (en) 2020-09-17
CN112954333A (zh) 2021-06-11
CN112866700A (zh) 2021-05-28
CN112954329B (zh) 2022-08-26
CN112511826A (zh) 2021-03-16
CN112468812B (zh) 2022-07-01
WO2020182164A1 (zh) 2020-09-17
CN110312132B (zh) 2020-05-12
CN112468813A (zh) 2021-03-09
CN113709473B (zh) 2022-11-25
CN113709467A (zh) 2021-11-26
CN112866703A (zh) 2021-05-28
CN112511828B (zh) 2022-07-29
CN112954335B (zh) 2022-09-30
JP2023126940A (ja) 2023-09-12
CN112954325A (zh) 2021-06-11
CN111698509B (zh) 2022-09-30
CN112866703B (zh) 2022-09-30
CN112468811B (zh) 2022-07-01
BR112021017777A2 (pt) 2021-11-16
CN112866702A (zh) 2021-05-28
WO2020182162A1 (zh) 2020-09-17
CN112468814A (zh) 2021-03-09
CN112866708B (zh) 2022-09-30
CN113709475A (zh) 2021-11-26
CN112954332A (zh) 2021-06-11
CN112866701B (zh) 2022-08-26
CN112954341B (zh) 2022-08-26
CN110312132A (zh) 2019-10-08
CN112954339B (zh) 2022-08-26
CN113709472B (zh) 2022-11-01
CN112511830A (zh) 2021-03-16
CN112954326A (zh) 2021-06-11
CN112954334A (zh) 2021-06-11
CN112866706A (zh) 2021-05-28
CN112969070B (zh) 2022-08-26
CN112887715B (zh) 2022-03-25
CN113709466B (zh) 2022-11-01
CA3228568A1 (en) 2020-09-17
ZA202106161B (en) 2024-01-31
CN113709465B (zh) 2022-11-01
CN112887716B (zh) 2022-05-31
CN112969069A (zh) 2021-06-15
CN113709472A (zh) 2021-11-26
CN112954331A (zh) 2021-06-11
CN110557644B (zh) 2020-11-06
CN112511827A (zh) 2021-03-16
CN112887716A (zh) 2021-06-01
CN112954338A (zh) 2021-06-11
CN113709474A (zh) 2021-11-26
CN112511827B (zh) 2022-07-01
CN112954331B (zh) 2022-07-29
CN112866708A (zh) 2021-05-28
US11902563B2 (en) 2024-02-13
JP2022522376A (ja) 2022-04-18
CN112954335A (zh) 2021-06-11
CN112954325B (zh) 2022-09-30
CN113709471A (zh) 2021-11-26
CN112954327B (zh) 2022-09-30
CN113709468B (zh) 2022-11-01
ZA202209597B (en) 2022-12-21
CN112866705A (zh) 2021-05-28
WO2020182161A1 (zh) 2020-09-17
CN112969070A (zh) 2021-06-15
CN112511829B (zh) 2022-07-01
CN112954326B (zh) 2022-09-30
KR20210129206A (ko) 2021-10-27
CN112954327A (zh) 2021-06-11
CN112954336A (zh) 2021-06-11
CN113709469B (zh) 2022-11-01
CN112866704A (zh) 2021-05-28
CN112954338B (zh) 2022-08-26
CN112954329A (zh) 2021-06-11
CN113709470A (zh) 2021-11-26
CN112954328B (zh) 2022-08-26
CN112954336B (zh) 2022-09-30
CN112468812A (zh) 2021-03-09
CN112468809B (zh) 2022-07-01
CN111698509A (zh) 2020-09-22
US20220167004A1 (en) 2022-05-26
CN112672156A (zh) 2021-04-16
CN112887715A (zh) 2021-06-01
CN112468810A (zh) 2021-03-09
CN113709470B (zh) 2022-11-01
CN113709474B (zh) 2022-11-01
CN112954337A (zh) 2021-06-11
KR20240005123A (ko) 2024-01-11
CN113709475B (zh) 2022-11-01
CN112511825A (zh) 2021-03-16
CN112866700B (zh) 2022-07-29
CN112866704B (zh) 2022-07-29
CN112511828A (zh) 2021-03-16
CN112954332B (zh) 2022-08-26
CN110557644A (zh) 2019-12-10
CN113709473A (zh) 2021-11-26
CN112866707B (zh) 2022-01-25
CN112969069B (zh) 2022-08-26
CN112866706B (zh) 2022-07-29
AU2020236452A1 (en) 2021-09-23
CN112954328A (zh) 2021-06-11
CN113709466A (zh) 2021-11-26
CN112969072A (zh) 2021-06-15
CN112511829A (zh) 2021-03-16
KR102619925B1 (ko) 2023-12-29
EP3941056A1 (en) 2022-01-19
AU2020236452B2 (en) 2023-03-30
EP3941056A4 (en) 2022-10-05
CN112866702B (zh) 2022-03-01
CN112532983B (zh) 2022-07-01
CN112954337B (zh) 2022-07-29
CN112969071A (zh) 2021-06-15
CN112954333B (zh) 2022-07-01
CN113709471B (zh) 2022-11-01
CN112468811A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
JP7311619B2 (ja) コーデック方法及び装置、符号化デバイス及び復号化デバイス
JP2022550592A (ja) 符号化及び復号方法、装置及びデバイス

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150