JP2018513611A - ビデオコーディングにおける動きベクトル導出 - Google Patents

ビデオコーディングにおける動きベクトル導出 Download PDF

Info

Publication number
JP2018513611A
JP2018513611A JP2017550188A JP2017550188A JP2018513611A JP 2018513611 A JP2018513611 A JP 2018513611A JP 2017550188 A JP2017550188 A JP 2017550188A JP 2017550188 A JP2017550188 A JP 2017550188A JP 2018513611 A JP2018513611 A JP 2018513611A
Authority
JP
Japan
Prior art keywords
motion vector
block
video
motion
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017550188A
Other languages
English (en)
Other versions
JP2018513611A5 (ja
JP6740243B2 (ja
Inventor
リ、シャン
チェン、イン
ジャン、リ
リウ、ホンビン
チェン、ジャンレ
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018513611A publication Critical patent/JP2018513611A/ja
Publication of JP2018513611A5 publication Critical patent/JP2018513611A5/ja
Application granted granted Critical
Publication of JP6740243B2 publication Critical patent/JP6740243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

ある例では、ビデオデータを処理する方法は、ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定することを含み、ここで、動き情報が参照ビデオデータに対する現在のブロックの動きを示す。方法はまた。決定された候補動きベクトルに基づいて、現在のブロックの導出される動きベクトルを決定することを含み、ここで、導出される動きベクトルを決定することが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備える。

Description

[0001]本出願は、各々の内容全体が参照により本明細書に組み込まれる、2015年3月27日に出願された米国仮出願第62/139,572号、および2015年6月19日に出願された米国仮出願第62/182,367号の利益を主張する。
[0002]本開示は、ビデオコーディングに関する。
[0003]デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、携帯電話または衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4、Part 10、アドバンストビデオコーディング(AVC:Advanced Video Coding)、高効率ビデオコーディング(HEVC)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオコーディング技法などの、ビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信し、受信し、符号化し、復号し、および/または記憶し得る。
[0004]ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するための空間的(spatial)(イントラピクチャ)予測および/または時間的(temporal)(インターピクチャ)予測を含む。ブロックベースビデオコーディングでは、ビデオスライス(たとえば、ビデオフレームまたはビデオフレームの一部分)が、いくつかの技法ではツリーブロック、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもある、ビデオブロックに区分され得る。ピクチャのイントラコーディングされた(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコーディングされた(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005]空間的予測または時間的予測は、コーディングされるべきブロックのための予測ブロックをもたらす。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコーディングされるブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルに従って符号化され、残差データは、コーディングされたブロックと予測ブロックとの間の差分を示す。イントラコーディングされるブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて残差変換係数をもたらすことがあり、その残差変換係数が次いで、量子化され得る。最初に2次元アレイで構成される量子化された変換係数は、変換係数の1次元ベクトルを生成するために走査されることがあり、なお一層の圧縮を達成するためにエントロピーコーディングが適用されることがある。
[0006]本開示の技法は、ビデオコーディングにおいて動き情報を導出することに関する。たとえば、ビデオコーダ(ビデオエンコーダまたはビデオデコーダ)は、ビットストリームに含まれるビデオデータをコーディングするために、ビットストリームに含まれない動き情報を生成し得る。符号化ループまたは復号ループにおいて動き情報を導出することによって、従来のイントラ予測技法などの、ビットストリームに動き情報を含める技法と比較して、ビットの節約が達成され得る。
[0007]一例では、ビデオデータを復号する方法は、現在のブロックの動き情報を決定するための複数の動き情報導出モードからある動き情報導出モードを選択することと、ここにおいて、複数の動き情報導出モードのうちの各動き情報導出モードが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報が、参照ビデオデータに対する現在のブロックの動きを示し、選択された動き情報導出モードを使用して、現在のブロックの動き情報を決定することと、動き情報を表すシンタックス要素を復号することなく、決定された動き情報を使用して現在のブロックを復号することと、を含む。
[0008]別の例では、ビデオデータを符号化する方法は、現在のブロックの動き情報を決定するための複数の動き情報導出モードからある動き情報導出モードを選択することと、ここにおいて、複数の動き情報導出モードのうちの各動き情報導出モードが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報が、参照ビデオデータに対する現在のブロックの動きを示し、選択された動き情報導出モードを使用して、現在のブロックの動き情報を決定することと、動き情報を表すシンタックス要素を符号化することなく、決定された動き情報を使用して現在のブロックを符号化することと、を含む。
[0009]別の例では、ビデオデータをコーディングするためのデバイスは、ビデオデータの現在のブロックを記憶するように構成されるメモリと、現在のブロックの動き情報を決定するための複数の動き情報導出モードからある動き情報導出モードを選択することと、ここにおいて、複数の動き情報導出モードのうちの各動き情報導出モードが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報が、参照ビデオデータに対する現在のブロックの動きを示し、選択された動き情報導出モードを使用して、現在のブロックの動き情報を決定することと、動き情報を表すシンタックス要素をコーディングすることなく、決定された動き情報を使用して現在のブロックをコーディングすることと、を行うように構成される、1つまたは複数のプロセッサと、を含む。
[0010]別の例では、ビデオデータをコーディングするための装置は、現在のブロックの動き情報を決定するための複数の動き情報導出モードからある動き情報導出モードを選択するための手段と、ここにおいて、複数の動き情報導出モードのうちの各動き情報導出モードが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報が、参照ビデオデータに対する現在のブロックの動きを示し、選択された動き情報導出モードを使用して、現在のブロックの動き情報を決定するための手段と、動き情報を表すシンタックス要素を復号することなく、決定された動き情報を使用して現在のブロックをコーディングするための手段と、を含む。
[0011]別の例では、非一時的コンピュータ可読媒体は、実行されると、1つまたは複数のプロセッサに、現在のブロックの動き情報を決定するための複数の動き情報導出モードからある動き情報導出モードを選択することと、ここにおいて、複数の動き情報導出モードのうちの各動き情報導出モードが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報が、参照ビデオデータに対する現在のブロックの動きを示し、選択された動き情報導出モードを使用して、現在のブロックの動き情報を決定することと、動き情報を表すシンタックス要素を復号することなく、決定された動き情報を使用して現在のブロックをコーディングすることと、を行わせる、命令を記憶している。
[0012]別の例では、ビデオデータを処理する方法は、ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定することと、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、決定された候補動きベクトルに基づいて、現在のブロックのための導出された動きベクトルを決定することと、を含み、ここにおいて、導出された動きベクトルを決定することが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備える。
[0013]別の例では、ビデオデータを処理するためのデバイスは、ビデオデータの現在のブロックを記憶するように構成されるメモリと、ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定することと、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、決定された候補動きベクトルに基づいて、現在のブロックのための導出された動きベクトルを決定することと、を行うように構成される、1つまたは複数のプロセッサと、を含み、ここにおいて、導出された動きベクトルを決定することが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備える。
[0014]別の例では、ビデオデータを処理するための装置は、ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定するための手段と、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、決定された候補動きベクトルに基づいて、現在のブロックのための導出された動きベクトルを決定するための手段と、を含み、導出された動きベクトルを決定するための手段が、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行するための手段を備える。
[0015]別の例では、非一時的コンピュータ可読媒体は、実行されると、1つまたは複数のプロセッサに、ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定することと、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、決定された候補動きベクトルに基づいて、現在のブロックのための導出された動きベクトルを決定することと、を行わせる、命令を記憶しており、ここにおいて、導出された動きベクトルを決定することために、この命令が、1つまたは複数のプロセッサに、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行させる。
[0016]別の例では、ビデオデータを処理する方法は、ビデオデータの現在のブロックを現在のブロックの動き情報を導出するための複数のサブブロックへ分割することと、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、複数のサブブロックの各々のそれぞれのサブブロックに対して別々に動き情報を導出することが、各々のそれぞれのサブブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報を表すシンタックス要素を復号することなく、導出された動き情報に基づいて複数のサブブロックを復号することと、を含む。
[0017]別の例では、ビデオデータを処理する方法は、ビデオデータの現在のブロックを現在のブロックの動き情報を導出するための複数のサブブロックへ分割することと、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、複数のサブブロックの各々のそれぞれのサブブロックに対して別々に動き情報を導出することが、各々のそれぞれのサブブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報を表すシンタックス要素を符号化することなく、導出された動き情報に基づいて複数のサブブロックを符号化することと、を含む。
[0018]別の例では、ビデオデータを処理するためのデバイスは、ビデオデータの現在のブロックを記憶するように構成されるメモリと、ビデオデータの現在のブロックを現在のブロックの動き情報を導出するための複数のサブブロックへ分割することと、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、複数のサブブロックの各々のそれぞれのサブブロックに対して別々に動き情報を導出することが、各々のそれぞれのサブブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報を表すシンタックス要素をコーディングすることなく、導出された動き情報に基づいて複数のサブブロックをコーディングすることと、を行うように構成される、1つまたは複数のプロセッサと、を含む。
[0019]別の例では、非一時的コンピュータ可読媒体は、実行されると、1つまたは複数のプロセッサに、ビデオデータの現在のブロックを現在のブロックの動き情報を導出するための複数のサブブロックへ分割することと、ここにおいて、動き情報が参照ビデオデータに対する現在のブロックの動きを示し、複数のサブブロックの各々のそれぞれのサブブロックに対して別々に動き情報を導出することが、各々のそれぞれのサブブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備え、動き情報を表すシンタックス要素を復号することなく、導出された動き情報に基づいて複数のサブブロックを復号することと、を行わせる、命令を記憶している。
[0020]別の例では、ビデオデータを処理するためのデバイスは、現在のピクチャを記憶するように構成されるメモリと、複数のコーディングされたピクチャを含む符号化されたビットストリームを取得することと、符号化されたビットストリームに含まれない1つまたは複数の参照ピクチャを補間することと、補間された1つまたは複数の参照ピクチャに基づいて、符号化されたビットストリームの現在のピクチャのビデオデータを復号することと、を行うように構成される、1つまたは複数のプロセッサと、を含む。
[0021]本開示の1つまたは複数の例の詳細が、添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかになる。
[0022]本開示の技法を実装し得る例示的なビデオ符号化および復号システムを示すブロック図。 [0023]本開示の技法を実装し得るビデオエンコーダの例を示すブロック図。 [0024]本開示の技法を実装し得るビデオデコーダの例を示すブロック図。 [0025]マージモードのための例示的な空間的隣接動きベクトル候補を示す概念図。 高度動きベクトル予測(AMVP:advanced motion vector prediction)モードのための空間的隣接動きベクトル候補を示す概念図。 [0026]例示的な時間的動きベクトル予測子(TMVP:temporal motion vector predictor)候補および動きベクトルのスケーリングを示す概念図。 例示的な時間的動きベクトル予測子候補および動きベクトルのスケーリングを示す概念図。 [0027]フレームレートアップコンバージョン(FRUC:frame rate up-conversion)における片側(unilateral)動き推定(ME:motion estimation)の例を示す概念図。 [0028]FRUCにおける両側(bilateral)動き推定(ME)の例を示す概念図。 [0029]テンプレートマッチングベースのデコーダ側動きベクトル導出(DMVD:decoder side motion vector derivation)の例を示す概念図。 [0030]DMVDにおけるミラーベースの双方向動きベクトル導出の例を示す概念図。 [0031]拡張(extended)両側マッチングベースの動きベクトル導出を示す概念図。 [0032]DMVDを使用して予測ユニット(PU)を復号する例を示すフローチャート。 [0033]ビデオデータのブロックをコーディングするための動き情報導出モードを決定するための例示的なプロセスを示すフローチャート。 [0034]ビデオデータのブロックをコーディングするための動きベクトルを導出するための例示的なプロセスを示すフローチャート。 [0035]ビデオデータのブロックのサブブロックの動き情報を導出するための例示的なプロセスを示すフローチャート。
詳細な説明
[0036]本開示の技法は、ブロックベースのビデオコーディングにおける、デコーダ側の動き情報導出、ブロック区分、および/またはビデオデータ補間に関する。本技法は、高効率ビデオコーディング(HEVC)などの既存のビデオコーデックのいずれにも適用され得、あらゆる未来のビデオコーディング規格に対する効率的なコーディングツールになり得る。
[0037]ビデオコーディングデバイスは、ビデオデータを効率的に符号化および復号するためのビデオ圧縮技法を実装する。ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間的予測(たとえば、フレーム内予測)、時間的予測(たとえば、フレーム間予測)、および/または他の予測技法を適用することを含み得る。ビデオエンコーダは通常、(以下でより詳細に説明されるように)ビデオブロックまたはコーディングユニットと呼ばれる矩形の領域に、元のビデオシーケンスの各ピクチャを区分する。これらのビデオブロックは、特定の予測モードを使用して符号化され得る。
[0038]インター予測モードでは、ビデオエンコーダは通常、参照フレームと呼ばれる別の時間的ロケーションにあるフレームにおいて符号化されているブロックに類似するブロックを探す。ビデオエンコーダは、符号化されるべきブロックからの一定の空間的変位に対する探索を制限し得る。水平方向の変位成分(component)と垂直方向の変位成分とを含む2次元(2D)動きベクトルを使用して、ベストマッチが特定され(be located)得る。イントラ予測モードでは、ビデオエンコーダは、同じピクチャ内の以前に符号化された隣接ブロックからのデータに基づいて、空間的予測技法を使用して予測されたブロックを形成し得る。
[0039]ビデオエンコーダは、予測誤差、すなわち、符号化されているブロック中のピクセル値と予測されたブロックとの間の差分(残差とも呼ばれる)を決定し得る。ビデオエンコーダはまた、変換係数を生成するために、離散コサイン変換(DCT)などの変換を予測誤差に適用し得る。変換の後で、ビデオエンコーダは変換係数を量子化し得る。量子化された変換係数および動きベクトルは、シンタックス要素を使用して表されることがあり、制御情報とともに、ビデオシーケンスのコーディングされた表現を形成し得る。いくつかの事例では、ビデオエンコーダは、シンタックス要素をエントロピーコーディングし得、それによりそれらの表現に必要なビットの数をさらに減らす。
[0040]ビデオデコーダは、上で論じられたシンタックス要素と制御情報とを使用して、現在のフレームを復号するための予測データ(たとえば、予測ブロック)を構築し得る。たとえば、ビデオデコーダは、予測ブロックと圧縮された予測誤差とを追加し得る。ビデオデコーダは、量子化された係数を使用して変換基底関数(transform basis functions)を重み付けることによって、圧縮された予測誤差を決定し得る。再構築されたフレームと元のフレームとの間の差分は、再構築誤差と呼ばれる。
[0041]いくつかの事例では、ビデオデコーダまたは後処理デバイスは、1つまたは複数の参照ピクチャに基づいてピクチャを補間し得る。そのような補間されたピクチャは、符号化されたビットストリームに含まれない。ビデオデコーダまたは後処理デバイスは、符号化されたビットストリームの元のフレームレートをアップコンバートするために、ピクチャを補間し得る。この処理は、フレームレートアップコンバージョン(FRUC)と呼ばれ得る。代わりに、ビデオデコーダまたは後処理デバイスは、より低いフレームレートでビデオシーケンスを符号化するためにビデオエンコーダによってスキップされた1つまたは複数のピクチャを挿入するために、ピクチャを補間し得る。いずれの場合でも、ビデオデコーダまたは後処理デバイスは、ビデオデコーダによって受信されている符号化されたビットストリームに含まれないフレームを補間する。ビデオデコーダまたは後処理デバイスは、いくつかの補間技法のいずれかを使用して、たとえば、動き補償されたフレーム補間、フレーム反復、またはフレーム平均化を使用して、ピクチャを補間し得る。
[0042]ピクチャを補間するためのいくつかの技法がアップコンバージョンの目的で使用されてきたが、そのような技法は、ビデオコーディングの間に、たとえば符号化されたビットストリームに含まれるビデオデータをコーディングするためには広く使用されてこなかった。たとえば、ピクチャを補間するための技法は、比較的時間集約的(intensive)であり、および/または比較的大量の処理能力を必要とし得る。したがって、そのような技法は通常、ビデオデータを復号するときにループ内で実行されてこなかった。
[0043]本開示の態様によれば、ビデオコーダ(たとえば、ビデオエンコーダまたはビデオデコーダ)は、ビットストリームをコーディングするときに動き情報を導出し得る。たとえば、ビデオコーダは、ビットストリームに含まれるビデオデータをコーディングするために、ビットストリームに含まれない動き情報を生成し得る。符号化ループまたは復号ループにおいて動き情報を導出することによって、(上で述べられたインター予測技法などの)ビットストリームに動き情報を含める技法と比較して、ビットの節約が達成され得る。
[0044]本開示のいくつかの態様によれば、ビデオコーダは、コーディングの間に複数の動き情報導出技法を利用し得る。そのような例では、ビデオコーダは、現在のブロックの動き情報を決定するときにどの動き情報導出技法を使用すべきかを決定するために、動き情報導出モードを決定し得る。一般に、動き情報を導出するために動き情報導出モードを使用することは、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを含み得る。たとえば、動き情報導出モード(たとえば、以下でより詳細に説明されるような、両側マッチング技法、テンプレートマッチング技法、または別の技法)を使用して、ビデオコーダは動きベクトル候補のリストの中のある動きベクトル候補を選択し得る。ビデオコーダは、現在のピクチャのデータと比較的よく一致する(relatively closely matches)参照ピクチャ中の参照データを識別する(これは参照データの「ベストマッチ」を決定することとして呼ばれることがある)動きベクトル候補に基づいて、動きベクトル候補を選択し得る。
[0045]いくつかの事例では、ビデオコーダは、参照ピクチャ中の探索ウィンドウを識別するために、選択された動きベクトル候補を使用し得る。ビデオコーダは、現在のピクチャ中の対応するデータと比較的よく一致する探索ウィンドウ中の参照データに基づいて、動きベクトル候補を改良し得る。すなわち、ビデオコーダは、現在のピクチャ中のデータとよく一致する探索ウィンドウ中の参照データ間の動きに基づいて、現在のブロックの新しい動き情報を導出し得る。ビデオコーダは次いで、導出された動き情報を使用して、現在のブロックのための動き補償を実行し得る。このようにして、ビデオコーダは、符号化されたビットストリームにおいて動き情報がシグナリングされることなく、現在のブロックの動き情報を導出し得る。
[0046]本開示の態様によれば、いくつかの例では、ビデオコーダは、動き情報を導出するときに、ビデオデータのブロックをサブブロックへ分割し得る。たとえば、ビデオコーダは、より大きいブロックの各サブブロックの動き情報を別々に導出し得る。いくつかの事例では、ビデオコーダは、ブロックの動き情報を最初に決定し、導出された動き情報をサブブロックの各々の候補動き情報として使用し得る。ビデオコーダは次いで、たとえば動き情報導出モード(たとえば、以下でより詳細に説明されるような、両側マッチング技法、テンプレートマッチング技法、または別の技法)を使用して、サブブロックの各々の導出された動き情報をさらに改良し得る。
[0047]本開示の技法はまた、ピクチャを補間するための技法を含み得る。いくつかの事例では、上の技法の任意の組合せが、たとえばフレームレートアップコンバージョンと同様に、ビットストリームに含まれないピクチャを補間するために使用され得る。しかしながら、補間されたピクチャを単にビデオシーケンスに追加するのではなく、ビデオデコーダは、コーディングの間、補間されたフレームを使用し得る。たとえば、ビデオデコーダは、補間されたピクチャの少なくとも一部分に基づいて、現在のピクチャのデータを復号し得る。いくつかの事例では、ビデオデコーダは、補間されたピクチャを現在のピクチャに等しく設定し得る。たとえば、ビデオデコーダは、ビットストリームに含まれる現在のピクチャのシンタックスデータ(たとえば、スライスヘッダデータなど)を復号し、ピクチャを補間し、補間されたピクチャを現在のピクチャとして設定し得る。他の事例では、ビデオデコーダは、ピクチャを補間し、補間されたピクチャに対する現在のピクチャのデータを復号し得る。この事例では、ビデオデコーダは、予測の目的で、補間されたピクチャを参照ピクチャメモリに追加し得る。
[0048]したがって、FRUCに言及して本明細書で説明されるいくつかの技法は、いくつかの例では、(たとえば、デコーダ側の動き情報導出プロセスにおいて)動き情報を決定するために使用され得る。他の例では、FRUCに言及して本明細書で説明される技法は、たとえばビデオデータをコーディングするための参照のために、または出力のために、ビデオデータを補間するために使用され得る。
[0049]図1は、動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための技法を利用し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示されているように、システム10は、宛先デバイス14によって後で復号されるべき符号化されたビデオデータを提供するソースデバイス12を含む。具体的には、ソースデバイス12は、コンピュータ可読媒体16を介して宛先デバイス14にビデオデータを提供する。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲のデバイスのいずれかを備え得る。いくつかの場合、ソースデバイス12および宛先デバイス14は、ワイヤレス通信に対応し得る。
[0050]宛先デバイス14は、コンピュータ可読媒体16を介して復号されるべき符号化されたビデオデータを受信し得る。コンピュータ可読媒体16は、ソースデバイス12から宛先デバイス14に符号化されたビデオデータを移動させることが可能な任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が宛先デバイス14にリアルタイムで符号化されたビデオデータを直接送信することを可能にする通信媒体を備え得る。符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理伝送線路などの、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなどの、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得る任意の他の機器を含み得る。
[0051]いくつかの例では、符号化されたデータは、出力インターフェース22から記憶デバイスに出力され得る。同様に、符号化されたデータは、記憶デバイスから入力インターフェースによってアクセスされ得る。記憶デバイスは、ハードドライブ、Blu−ray(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性もしくは不揮発性メモリ、または符号化されたビデオデータを記憶するための任意の他の好適なデジタル記憶媒体などの、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる例では、記憶デバイスは、ソースデバイス12によって生成された符号化されたビデオを記憶し得るファイルサーバまたは別の中間記憶デバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介して、記憶デバイスからの記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化されたビデオデータを記憶することができ、その符号化されたビデオデータを宛先デバイス14に送信することができる、任意のタイプのサーバであり得る。例示的なファイルサーバは、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワークアタッチストレージ(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準的なデータ接続を通じて、符号化されたビデオデータにアクセスし得る。これは、ワイヤレスチャネル(たとえば、Wi−Fi(登録商標)接続)、ワイヤード接続(たとえば、DSL、ケーブルモデムなど)、または、ファイルサーバに記憶された符号化されたビデオデータにアクセスするのに適した、両方の組合せを含み得る。記憶デバイスからの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
[0052]本開示の技法は、ワイヤレスの適用例または設定に必ずしも限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH:dynamic adaptive streaming over HTTP)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体上に記憶されたデジタルビデオの復号、または他の適用例などの、様々なマルチメディア応用のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、および/またはビデオ電話などの適用をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0053]図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。本開示によれば、ソースデバイス12のビデオエンコーダ20は、動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または配置を含み得る。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、内蔵ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
[0054]図1の示されるシステム10は一例にすぎない。動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。一般に、本開示の技法は、ビデオ符号化デバイスによって実行されるが、本技法は、「コーデック」と通常は呼ばれるビデオエンコーダ/デコーダによっても実行され得る。その上、本開示の技法は、ビデオプリプロセッサによっても実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14への送信のためのコーディングされたビデオデータを生成するようなコーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、実質的に対称的に動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオ電話のために、ビデオデバイス12とビデオデバイス14との間で一方向または双方向のビデオ送信をサポートし得る。
[0055]ソースデバイス12のビデオソース18は、ビデオカメラ、以前にキャプチャされたビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースなどの、ビデオキャプチャデバイスを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブされたビデオとコンピュータにより生成されたビデオとの組合せを生成し得る。いくつかの場合には、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き電話またはビデオ電話を形成し得る。しかしながら、上述のように、本開示で説明される技法は、全般にビデオコーディングに適用可能であることがあり、ワイヤレスおよび/またはワイヤード適用例に適用されることがある。各々の場合において、キャプチャされたビデオ、前にキャプチャされたビデオ、またはコンピュータにより生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、その後、出力インターフェース22によってコンピュータ可読媒体16に出力され得る。
[0056]コンピュータ可読媒体16は、ワイヤレスブロードキャストもしくはワイヤードネットワーク送信などの一時媒体、または、ハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、Blu−rayディスク、もしくは他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示されず)は、たとえば、ネットワーク送信を介して、ソースデバイス12から符号化されたビデオデータを受信し、その符号化されたビデオデータを宛先デバイス14に与え得る。同様に、ディスクスタンピング設備などの、媒体製造設備のコンピューティングデバイスは、ソースデバイス12から符号化されたビデオデータを受信し、その符号化されたビデオデータを含んでいるディスクを製造し得る。したがって、様々な例では、コンピュータ可読媒体16は、様々な形態の1つまたは複数のコンピュータ可読媒体を含むと理解され得る。
[0057]宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ブロックおよび他のコーディングされたユニット、たとえば、GOPの特性および/または処理を記述するシンタックス要素を含む、ビデオエンコーダ20によって定義されビデオデコーダ30によっても使用される、シンタックス情報を含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの、様々なディスプレイデバイスのいずれかを備え得る。
[0058]図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびデコーダと統合されることがあり、共通のデータストリームまたは別個のデータストリームの中でオーディオとビデオの両方の符号化を処理するために、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0059]ビデオエンコーダ20およびビデオデコーダ30は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組合せなどの、様々な適切なエンコーダ回路のいずれかとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、適切な非一時的コンピュータ可読媒体にソフトウェアのための命令を記憶し、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアでその命令を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダに含まれることがあり、そのいずれもが、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として統合されることがある。
[0060]本開示は、一般に、ビデオエンコーダ20が、ビデオデコーダ30などの別のデバイスにある情報を「シグナリング」することに言及することがある。「シグナリング」という用語は、全般に、圧縮されたビデオデータを復号するために使用されるシンタックス要素および/または他のデータの通信を指し得る。そのような通信は、リアルタイムまたはほぼリアルタイムで発生し得る。代替として、そのような通信は、符号化時に符号化されたビットストリームにおいてシンタックス要素をコンピュータ可読記憶媒体に記憶するときに行われることがあるなど、ある時間の長さにわたって行われることがあり、次いで、シンタックス要素は、この媒体に記憶された後の任意の時間に復号デバイスによって取り出されることがある。
[0061]ビデオエンコーダ20およびビデオデコーダ30は、ビデオコーディング規格に従って動作し得る。Joint Collaboration Team on Video Coding (JCT−VC)、ならびにITU−T Video Coding Experts Group (VCEG)およびISO/IEC Motion Picture Experts Group (MPEG)のJoint Collaboration Team on 3D Video Coding Extension Development (JCT−3V)によって開発された例示的なビデオコーディング規格には、その範囲拡張と、マルチビュー拡張(MV−HEVC)とスケーラブル拡張(SHVC)とを含む、高効率ビデオコーディング(HEVC)またはITU−T H.265がある。完成したHEVC規格文書は、「ITU−T H.265、SERIES H:AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services−Coding of moving video−High efficiency video coding」、国際電気通信連合(ITU)の電気通信標準化部門、2013年4月として公開されている。代わりに、ビデオエンコーダ20およびビデオデコーダ30は、そのスケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)と拡張を含む、ISO/IEC MPEG−4 VisualおよびITU−T H.264(ISO/IEC MPEG−4 AVCとしても知られている)などの、他のプロプライエタリ規格または業界規格に従って動作し得る。しかしながら、本開示の技法は、いかなる特定のコーディング規格にも限定されない。たとえば、本開示の技法は、ITU−T H.266などの、様々な他のプロプライエタリもしくは非プロプライエタリビデオコーディング技法または後続の規格とともに使用され得る。
[0062]上で述べられたように、インター予測モードでは、ビデオエンコーダ20は、参照ピクチャと呼ばれる別の時間的ロケーションのピクチャにおいて、符号化されているブロック(「現在のブロック」)に類似するブロックを探し得る。参照ピクチャを特定するために使用される情報は、動き情報と呼ばれ得る。たとえば、各ブロックについて、動き情報のセットが利用可能であり得る。動き情報のセットは、前方予測方向および後方予測方向のための動き情報を含む。ここで、前方予測方向および後方予測方向は、双方向予測モードの2つの予測方向であり、「前方」および「後方」という用語は、必ずしも幾何学的な意味を有するとは限らず、代わりに、これらの用語は、現在のピクチャの参照ピクチャリスト0(RefPicList0)および参照ピクチャリスト1(RefPicList1)に対応する。ピクチャまたはスライスについて1つの参照ピクチャリストのみが利用可能であるとき、RefPicList0のみが利用可能であり、スライスの各ブロックの動き情報は常に前方である。
[0063]いくつかの場合、動きベクトルは、その参照インデックスとともに復号プロセスにおいて使用され、そのような動きベクトルは関連する参照インデックスとともに、動き情報の単予測セットと表記される。
[0064]各予測方向について、動き情報は、参照インデックスと動きベクトルとを含まなければならない。場合によっては、簡単のために、動きベクトルが関連する参照インデックスを有すると仮定されるような方法では、動きベクトル自体が参照されることがある。参照インデックスは、現在の参照ピクチャリスト(RefPicList0またはRefPicList1)中の参照ピクチャを識別するために使用される。動きベクトルは水平成分と垂直成分とを有する。
[0065]ビデオコーディング規格において、ピクチャの表示順序を識別するためにピクチャ順序カウント(POC:picture order count)が広く使用されている。1つのコーディングされたビデオシーケンス内の2つのピクチャが同じPOC値を有し得る場合があるが、一般に、コーディングされたビデオシーケンス内でそのようなことは起こらない。複数のコーディングされたビデオシーケンスがビットストリーム中に存在するとき、POCの同じ値をもつピクチャは、復号順序に関して互いに近いことがある。ピクチャのPOC値は、一般に、参照ピクチャリスト構築、HEVCの場合のような参照ピクチャセットの導出、および動きベクトルスケーリングのために使用される。
[0066]H.264/AVCでは、各インターマクロブロック(MB)は、1つの16×16MB区分と、2つの16×8MB区分と、2つの8×16MB区分と、4つの8×8MB区分とを含む、4つの異なる方法へと区分され得る。1つのMB中の異なるMB区分は、各方向について異なる参照インデックス値(RefPicList0またはRefPicList1)を有し得る。MBが4つの8×8MB区分へと区分されないとき、MBは、各MB区分について各方向に1つの動きベクトルのみを有する。
[0067]MBが4つの8×8MB区分へと区分されるとき、各8×8MB区分は、その各々が各方向に異なる動きベクトルを有し得るサブブロックへさらに区分され得る。1つの8×8サブブロックと、2つの8×4サブブロックと、2つの4×8サブブロックと、4つの4×4サブブロックとを含むサブブロックを8×8MBの区分から得るために、4つの異なる方法がある。各サブブロックは、各方向に異なる動きベクトルを有し得る。したがって、動きベクトルは、サブブロックよりも高いに等しいレベルに存在する。
[0068]AVCでは、時間的直接モードは、Bスライス中のスキップモードまたは直接モードに対して、MBレベルまたはMB区分レベルのいずれかにおいて有効にされ得る。各MB区分について、動きベクトルを導出するために、現在のブロックのRefPicList1[0]中の現在のMB区分とコロケートされるブロックの動きベクトルが使用される。コロケートされたブロック中の各動きベクトルは、POC距離に基づいてスケーリングされる。AVCでは、直接モードはまた、空間的なネイバーから動き情報を予測することができ、これは空間的直接モードと呼ばれ得る。
[0069]HEVCでは、ピクチャの符号化された表現を生成するために、ビデオエンコーダ20はコーディングツリーユニット(CTU)のセットを生成し得る。CTUの各々は、ルーマサンプルのコーディングツリーブロック(CTB)と、クロマサンプルの2つの対応するCTBと、CTBのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、CTUは、単一のCTBブロックと、そのコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
[0070]コーディングツリーブロックはサンプルのN×Nブロックであり得る。(技術的には8×8のCTBサイズがサポートされ得るが)CTBのサイズは、HEVCメインプロファイルでは16×16から64×64までの範囲であり得る。コーディングユニット(CU)は、CTBの同じサイズであり得るが、8×8程度に小さくなり得る。各コーディングユニットは、1つのモードを用いてコーディングされる。CTUは「ツリーブロック」または「最大コーディングユニット」(LCU)と呼ばれることもある。HEVCのCTUは、H.264/AVCなどの他の規格のマクロブロックに広い意味で類似し得る。しかしながら、CTUは、必ずしも特定のサイズに限定されるとは限らず、1つまたは複数のコーディングユニット(CU)を含み得る。スライスは、ラスター走査順序で連続的に順序付けられた整数個のCTUを含み得る。
[0071]コーディングされたCTUを生成するために、ビデオエンコーダ20は、コーディングツリーブロックをコーディングブロックに分割するように、CTUのコーディングツリーブロックに対して4分木区分を再帰的に(recursively)実行することができ、したがって「コーディングツリーユニット」という名称である。コーディングブロックはサンプルのN×Nブロックであり得る。CUは、ルーマサンプルアレイとCbサンプルアレイとCrサンプルアレイとを有するピクチャのルーマサンプルのコーディングブロックと、そのピクチャのクロマサンプルの2つの対応するコーディングブロックと、それらのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、CUは、単一のコーディングブロックと、そのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
[0072]ビデオエンコーダ20は、CUのコーディングブロックを1つまたは複数の予測ブロックに区分し得る。予測ブロックは、同じ予測が適用されるサンプルの矩形(すなわち、正方形または非正方形)ブロックである。CUの予測ユニット(PU)は、ルーマサンプルの予測ブロックと、クロマサンプルの2つの対応する予測ブロックと、それらの予測ブロックを予測するために使用されるシンタックス構造とを備え得る。モノクロームピクチャまたは3つの別個のカラープレーンを有するピクチャでは、PUは、単一の予測ブロックと、その予測ブロックを予測するために使用されるシンタックス構造とを備え得る。ビデオエンコーダ20は、CUの各PUのルーマ予測ブロック、Cb予測ブロック、およびCr予測ブロックの、予測ルーマブロック、予測Cbブロック、および予測Crブロックを生成し得る。
[0073]ビデオエンコーダ20は、PUの予測ブロックを生成するためにイントラ予測またはインター予測を使用し得る。ビデオエンコーダ20がPUの予測ブロックを生成するためにイントラ予測を使用する場合、ビデオエンコーダ20は、PUと関連付けられるピクチャの復号されたサンプルに基づいてPUの予測ブロックを生成し得る。ビデオエンコーダ20が、PUの予測ブロックを生成するためにインター予測を使用する場合、ビデオエンコーダ20は、PUと関連付けられるピクチャ以外の1つまたは複数のピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成し得る。CUがインターコーディングされるとき、CUは2つまたは4つのPUへとさらに区分され得る。1つのCUに2つのPUが存在するとき、いくつかの事例では、PUは、半分のサイズの長方形、またはCUの1/4もしくは3/4のサイズを有する2つの長方形サイズであり得る。
[0074]ビデオエンコーダ20がCUの1つまたは複数のPUの予測ルーマブロックと、予測Cbブロックと、予測Crブロックとを生成した後、ビデオエンコーダ20は、CUのルーマ残差ブロックを生成し得る。CUのルーマ残差ブロック中の各サンプルは、CUの予測ルーマブロックのうちの1つの中のルーマサンプルとCUの元のルーマコーディングブロックの中の対応するサンプルとの間の差分を示す。さらに、ビデオエンコーダ20は、CUのCb残差ブロックを生成し得る。CUのCb残差ブロック中の各サンプルは、CUの予測Cbブロックのうちの1つの中のCbサンプルと、CUの元のCbコーディングブロックの中の対応するサンプルとの間の差分を示し得る。ビデオエンコーダ20はまた、CUのCr残差ブロックを生成し得る。CUのCr残差ブロック中の各サンプルは、CUの予測Crブロックのうちの1つの中のCrサンプルと、CUの元のCrコーディングブロックの中の対応するサンプルとの間の差分を示し得る。
[0075]さらに、ビデオエンコーダ20は、CUのルーマ残差ブロックとCb残差ブロックとCr残差ブロックとを1つまたは複数のルーマ変換ブロックとCb変換ブロックとCr変換ブロックとに分解するために、4分木区分を使用し得る。変換ブロックは、同じ変換が適用されるサンプルの矩形(たとえば、正方形または非正方形)ブロックである。CUの変換ユニット(TU)は、ルーマサンプルの変換ブロックと、クロマサンプルの2つの対応する変換ブロックと、それらの変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。したがって、CUの各TUは、ルーマ変換ブロック、Cb変換ブロック、およびCr変換ブロックと関連付けられ得る。TUと関連付けられるルーマ変換ブロックは、CUのルーマ残差ブロックのサブブロックであり得る。Cb変換ブロックは、CUのCb残差ブロックのサブブロックであり得る。Cr変換ブロックは、CUのCr残差ブロックのサブブロックであり得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、TUは、単一の変換ブロックと、その変換ブロックのサンプルを変換するために使用されるシンタックス構造とを備え得る。
[0076]ビデオエンコーダ20は、TUのルーマ係数ブロックを生成するために、TUのルーマ変換ブロックに1つまたは複数の変換を適用し得る。係数ブロックは変換係数の2次元アレイであり得る。変換係数はスカラー量であり得る。ビデオエンコーダ20は、TUのCb係数ブロックを生成するために、TUのCb変換ブロックに1つまたは複数の変換を適用し得る。ビデオエンコーダ20は、TUのCr係数ブロックを生成するために、TUのCr変換ブロックに1つまたは複数の変換を適用し得る。
[0077]係数ブロック(たとえば、ルーマ係数ブロック、Cb係数ブロックまたはCr係数ブロック)を生成した後、ビデオエンコーダ20は、係数ブロックを量子化し得る。量子化は、一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮をもたらすプロセスを指す。ビデオエンコーダ20が係数ブロックを量子化した後に、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素をエントロピー符号化し得る。たとえば、ビデオエンコーダ20は、量子化された変換係数を示すシンタックス要素に対してコンテキスト適応型バイナリ算術コーディング(CABAC)を実行し得る。
[0078]ビデオエンコーダ20は、コーディングされたピクチャと、関連するデータの表現とを形成する、ビットのシーケンスを含むビットストリームを出力し得る。ビットストリームは、ネットワークアブストラクションレイヤ(NAL)ユニットのシーケンスを備え得る。NALユニットは、NALユニット中のデータのタイプの指示と、必要に応じてエミュレーション防止ビット(emulation prevention bits)が散在させられているローバイトシーケンスペイロード(RBSP:raw byte sequence payload)の形態でそのデータを含むバイトとを含んでいるシンタックス構造である。NALユニットの各々は、NALユニットヘッダを含み、RBSPをカプセル化する。
[0079]異なるタイプのNALユニットは、異なるタイプのRBSPをカプセル化し得る。たとえば、第1のタイプのNALユニットはピクチャパラメータセット(PPS)のためのRBSPをカプセル化することができ、第2のタイプのNALユニットはコーディングされたスライスのためのRBSPをカプセル化することができ、第3のタイプのNALユニットはSEIのためのRBSPをカプセル化することができ、以下同様である。ビデオコーディングデータのためのRBSPをカプセル化するNALユニットは(パラメータセットおよびSEIメッセージのためのRBSPとは対照的に)、ビデオコーディングレイヤ(VCL)NALユニットと呼ばれ得る。
[0080]ビデオデコーダ30は、ビデオエンコーダ20によって生成されたビットストリームを受信し得る。加えて、ビデオデコーダ30は、ビットストリームからシンタックス要素を取得するために、ビットストリームをパースし(parse)得る。ビデオデコーダ30は、ビットストリームから取得されたシンタックス要素に少なくとも部分的に基づいて、ビデオデータのピクチャを再構築し得る。ビデオデータを再構築するためのプロセスは、全般に、ビデオエンコーダ20によって実行されるプロセスの逆であり得る。加えて、ビデオデコーダ30は、現在のCUのTUと関連付けられた係数ブロックを逆量子化し得る。ビデオデコーダ30は、現在のCUのTUと関連付けられた変換ブロックを再構築するために、係数ブロックに対して逆変換を実行し得る。ビデオデコーダ30は、現在のCUのPUの予測ブロックのサンプルを現在のCUのTUの変換ブロックの対応するサンプルに加算することによって、現在のCUのコーディングブロックを再構築し得る。ピクチャのCUごとにコーディングブロックを再構築することによって、ビデオデコーダ30はピクチャを再構築し得る。
[0081]CUがインターコーディングされるとき、PUごとに動き情報の1つのセットが存在する。加えて、各PUは、動き情報のセットを導出するために固有のインター予測モードを用いてコーディングされる。HEVC規格では、予測ユニット(PU)のために、それぞれ、マージモード(スキップはマージの特殊な場合と見なされる)および高度動きベクトル予測(AMVP)モードと称される2つのインター予測モードがある。
[0082]AMVPモードまたはマージモードのいずれかにおいて、動きベクトル(MV)候補リストは、複数の動きベクトル予測子のために維持される。現在のPUの、(1つまたは複数の)動きベクトル、ならびにマージモードにおける参照インデックスは、MV候補リストから1つの候補をとることによって生成される。
[0083]MV候補リストは、マージモードのための最高で5つの候補とAMVPモードのための2つの候補とを含んでいる。マージ候補は、動き情報のセット、たとえば、参照ピクチャリスト(リスト0およびリスト1)と参照インデックスの両方に対応する動きベクトルを含み得る。マージ候補がマージインデックスによって識別される場合、現在のブロックの予測のために参照ピクチャが使用され、ならびに関連する動きベクトルが決定される。しかしながら、リスト0またはリスト1のいずれかからの各々の可能性のある(potential)予測方向に対するAMVPモードのもとでは、AMVP候補が動きベクトルのみを含んでいるので、MVPインデックスとともに参照インデックスがMV候補リストに明示的にシグナリングされる必要がある。AMVPモードでは、予測動きベクトルはさらに改良され得る。
[0084]このように、マージ候補は、動き情報のフルセットに対応するが、AMVP候補は、特定の予測方向および参照インデックスのための1つだけの動きベクトルを含む。両方のモードに対する候補は、以下で図4および図5に関して説明されるように、同じ空間的隣接ブロックおよび時間的隣接ブロックから同様に導出される。
[0085]本開示の態様によれば、以下でより詳細に説明されるように、ビデオエンコーダ20および/またはビデオデコーダ30は、動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための、本明細書で説明される技法の任意の組合せを実行するように構成され得る。動き情報導出に関して、ビデオエンコーダ20および/またはビデオデコーダ30は、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することによって、動き情報を導出するように構成され得る。一致は、参照データ間の類似性の程度に基づいて決定されることがあり、本明細書では「マッチ」または「ベストマッチ」を決定することとして呼ばれることがある。
[0086]いくつかの例では、ビデオエンコーダ20および/またはビデオデコーダ30は最初に、動き導出プロセスが有効であるかどうかを示す1つまたは複数のシンタックス要素をコーディングすることができる。いくつかの事例では、1つまたは複数のシンタックス要素は、上で説明されたマージモードなどの別のモードに組み込まれ得る。たとえば、図10の例に関してより詳細に説明されるように、ビデオエンコーダ20および/またはビデオデコーダ30は、動き導出を実行するかどうかを示すマージモードを実行するときの1つまたは複数のシンタックス要素(たとえば、フラグ、マージ候補リストの中のインデックスなど)をコーディングする。
[0087]動き導出が有効にされる事例では、本開示の態様によれば、ビデオエンコーダ20および/またはビデオデコーダ30は、パターンマッチングされた動きベクトル導出を実行することができる。たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、複数の動き情報導出モードからのどの動き情報導出モードを適用すべきかを示す、1つまたは複数のシンタックス要素をコーディングすることができる。ビデオエンコーダ20および/またはビデオデコーダ30は、2つの動き導出情報モードを区別するためのフラグ、または2つより多くの動き情報導出モードを区別するためのインデックスをコーディングすることができる。本明細書で説明されるように、例示的なパターンマッチングされる動き情報導出モードは、両側マッチングまたはテンプレートマッチングを含む。
[0088]動き導出プロセスの間、ビデオエンコーダ20および/またはビデオデコーダ30は、選択された動き導出プロセスに基づいて、ブロック全体(たとえば、全体のPU)のための初期動きベクトルを導出することができる。たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、マージモードと関連付けられる候補リストから動きベクトルを使用し、候補リストからのどの動きベクトルがベストマッチをもたらすかを決定することができる。すなわち、ビデオエンコーダ20および/またはビデオデコーダ30は、選択された動き導出プロセスにおいて使用されるときに、候補リストからのどの動きベクトルが、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセット、たとえば現在のピクチャまたは参照ピクチャの中のデータとよく一致する参照データをもたらすかを、決定することができる。一般に、「ベストマッチ」は、ピクセル差分の観点で最も類似しているビデオデータを指し得る。
[0089]説明を目的とする例として、図8に関してより詳細に説明されるように、ビデオエンコーダ20および/またはビデオデコーダ30は、テンプレートマッチング動き情報導出モードを選択し得る。この例では、ビデオエンコーダ20および/またはビデオデコーダ30は、参照ピクチャの中のテンプレートと最もよく一致するテンプレートをもたらす最高のベクトル候補に基づいて、マージモードから動きベクトル候補を選択することができる。たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行するように構成されることがあり、データの第1のセットは現在のピクチャの中のテンプレートを備え、参照データの第2のセットは参照ピクチャの中のテンプレートを備える。いくつかの事例では、以下でより詳細に説明されるように、ビデオエンコーダ20および/またはビデオデコーダ30は、加えて、または代わりに、最小のマッチングコストに基づいて候補動きベクトルを選択することができる。
[0090]本開示の態様によれば、候補動きベクトルを決定した後で、ビデオエンコーダ20および/またはビデオデコーダ30はさらに、現在のブロックの動き情報を導出するために候補動きベクトルを改良することができる。たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、候補動きベクトルによって示される参照ピクチャの事前に定義されたエリアの中で探索(たとえば、動き情報導出モードを使用した探索)を実行することができる。ビデオエンコーダ20および/またはビデオデコーダ30は、現在のピクチャのビデオデータとのベストマッチおよび/または最小マッチングコストを有する、事前に定義されたエリアの中の参照データを示す動きベクトルに基づいて、現在のブロックの動き情報を導出することができる。
[0091]いくつかの事例では、本開示の態様によれば、ビデオエンコーダ20および/またはビデオデコーダ30は、動き情報を導出するときに、ビデオデータのブロックをサブブロックへ分割することができる。たとえば、ビデオエンコーダ20および/またはビデオデコーダ30は、より大きいブロックの各サブブロックの動き情報を別々に導出することができる。いくつかの事例では、ビデオエンコーダ20および/またはビデオデコーダ30は、(たとえば、上で説明されたプロセスを使用して)ブロックのために導出された動き情報をサブブロックの各々の候補動き情報として使用することができる。ビデオエンコーダ20および/またはビデオデコーダ30は次いで、たとえば特定の動き情報導出モード(たとえば、以下でより詳細に説明されるような、両側マッチング技法、テンプレートマッチング技法、または別の技法)を使用して、サブブロックの各々の導出された動き情報をさらに改良することができる。
[0092]図2は、動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための技法を実施し得るビデオエンコーダ20の例を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディングとインターコーディングとを実行し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオの時間的冗長性を低減または除去するために時間的予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースコーディングモードのいずれかを指すことがある。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースコーディングモードのいずれかを指すことがある。
[0093]図2に示されているように、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在のビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、ビデオデータメモリ38と、モード選択ユニット40と、参照ピクチャメモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。モード選択ユニット40は、動き補償ユニット44と、動き推定ユニット42と、イントラ予測ユニット46と、分割ユニット48とを含む。ビデオブロックの再構築のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構築されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタリングするための、(図2に示されていない)デブロッキングフィルタも含まれ得る。所望される場合、デブロッキングフィルタは、通常、加算器62の出力をフィルタリングする。追加のフィルタ(ループ内またはループ後)もデブロッキングフィルタに加えて使用され得る。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器50の出力をフィルタリングし得る。
[0094]符号化プロセスの間に、ビデオエンコーダ20は、コーディングされるべきビデオフレームまたはスライスを受信する。フレームまたはスライスは、複数のビデオブロックに分割され得る。ビデオデータメモリ38は、ビデオエンコーダ20の構成要素によって符号化されるべきビデオデータを記憶し得る。ビデオデータメモリ38に記憶されるビデオデータは、たとえば、ビデオソース18から取得され得る。参照ピクチャメモリ64は、たとえば、イントラコーディングモードまたはインターコーディングモードで、ビデオエンコーダ20によってビデオデータを符号化する際に使用するための参照ビデオデータを記憶する、DPBと呼ばれることがある。ビデオデータメモリ38および参照ピクチャメモリ64は、同期DRAM(SDRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM(登録商標))、または他のタイプのメモリデバイスを含む、ダイナミックランダムアクセスメモリ(DRAM)などの、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ38および参照ピクチャメモリ64は、同じメモリデバイスまたは別個のメモリデバイスによって与えられ得る。様々な例では、ビデオデータメモリ38は、ビデオエンコーダ20の他の構成要素とともにオンチップであってよく、またはそれらの構成要素に対してオフチップであってもよい。
[0095]動き推定ユニット42および動き補償ユニット44は、時間的予測を行うために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対する受信されたビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は、代わりに、空間的予測を行うために、コーディングされるべきブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対する受信されたビデオブロックのイントラ予測コーディングを実行し得る。ビデオエンコーダ20は、たとえば、ビデオデータの各ブロックに適切なコーディングモードを選択するために、複数のコーディングパスを実行し得る。
[0096]その上、区分ユニット48は、以前のコーディングパスにおける以前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。たとえば、区分ユニット48は、最初にフレームまたはスライスをLCUに区分し、レートひずみ分析(たとえば、レートひずみ最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、さらに、LCUをサブCUに区分することを示す4分木データ構造を生成し得る。4分木のリーフノードCUは、1つまたは複数のPUと1つまたは複数のTUとを含み得る。
[0097]モード選択ユニット40は、たとえば、誤差結果に基づいて、コーディングモード、イントラまたはインターのうちの1つを選択し、残差ブロックデータを生成するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器50に提供し、参照フレームとして使用するための符号化されたブロックを再構築するために、得られたイントラコーディングされたブロックまたはインターコーディングされたブロックを加算器62に提供し得る。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、区分情報、および他のそのようなシンタックス情報などのシンタックス要素を、エントロピー符号化ユニット56に与える。
[0098]動き推定ユニット42および動き補償ユニット44は、高度に統合され得るが、概念的な目的のために別々に示されている。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在のフレーム(または他のコーディングされたユニット)内でコーディングされている現在のブロックに対する参照フレーム(または他のコーディングされたユニット)内の予測ブロックに対する現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリクス(metrics)によって決定され得るピクセル差分に関して、コーディングされるべきブロックとよく一致することが判明しているブロックである。
[0099]いくつかの例では、ビデオエンコーダ20は、ブロックの動きベクトルを決定するために高速動き探索を実行することができる。たとえばLurng−Kuo Liu, Ephraim Feig、「A block−based gradient descent search algorithm for block motion estimation in video coding」、IEEE Trans. Circuits Syst. Video Technol.、vol. 6、pp.419−422、1996年8月において記述されるようなBlock−Based Gradient Descent Search (BBGDS)、たとえばJo Yew Tham、Surendra Ranganath、Maitreya Ranganath、およびAshraf Ali Kassim、「A novel unrestricted center−biased diamond search algorithm for block motion estimation」、IEEE Trans. Circuits Syst. Video Technol.、vol. 8、pp.369−377、1998年8月において記述されるようなUnrestricted Center−Biased Diamond Search (UCBDS)、ならびに、たとえばCe Zhu、Xiao Lin、およびLap−Pui Chau、「Hexagon−Based Search Pattern for Fast Block Motion Estimation」、IEEE Trans. Circuits Syst. Video Technol.、vol. 12、pp.349−355、2002年5月において記述されるようなHEXagon−Based Search (HEBS)などの、文献において提案されている多くの高速動き探索方法がある。基本的に、これらの技法は、事前に定義された探索パターンに基づいて、探索ウィンドウの内側のいくつかの数の位置だけを探索することを含む。これらの技法は普通は、動きが小さく穏やかであるときには良好に機能する。
[0100]いくつかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、参照ピクチャの1/4ピクセル位置、1/8ピクセル位置、または他の分数のピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置および分数ピクセル位置に対して動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
[0101]動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコーディングされたスライス中のビデオブロックのPUの動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択されることがあり、それらの各々が、参照ピクチャメモリ64に記憶された1つまたは複数の参照ピクチャを識別する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56および動き補償ユニット44に送る。
[0102]動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて予測ブロックをフェッチまたは生成することを伴い得る。同じく、動き推定ユニット42および動き補償ユニット44は、いくつかの例では、機能的に統合され得る。現在のビデオブロックのPUの動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照ピクチャリストのうちの1つにおいて指す予測ブロックを位置特定し(located)得る。加算器50は、以下で説明されるように、コーディングされている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算し、ピクセル差分値を形成することによって、残差ビデオブロックを形成する。一般に、動き推定ユニット42は、ルーマ成分に対して動き推定を実行し、動き補償ユニット44は、クロマ成分とルーマ成分の両方について、ルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット40はまた、ビデオスライスのビデオブロックを復号する際のビデオデコーダ30による使用のために、ビデオブロックとビデオスライスとに関連付けられたシンタックス要素を生成し得る。
[0103]イントラ予測ユニット46は、上で説明されたように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在のブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在のブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パスの間に、様々なイントラ予測モードを使用して現在のブロックを符号化することができ、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択することができる。
[0104]たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの間で最も良好なレートひずみ特性を有するイントラ予測モードを選択することができる。レートひずみ分析は、一般に、符号化されたブロックと、符号化されたブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに、符号化されたブロックを生成するために使用されるビットレート(すなわち、ビット数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックについて最良のレートひずみ値を呈するかを決定するために、様々な符号化されたブロックのひずみおよびレートから比率を計算し得る。
[0105]ブロックのためのイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピー符号化ユニット56に提供し得る。エントロピー符号化ユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、複数のイントラ予測モードインデックステーブルおよび複数の修正されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)と、様々なブロックのための符号化コンテキストの定義と、コンテキストの各々について使用すべき、最確(most probable)イントラ予測モード、イントラ予測モードインデックステーブル、および修正されたイントラ予測モードインデックステーブルのインジケーションとを含み得る構成データを、送信されるビットストリームに含め得る。
[0106]本開示の態様によれば、本明細書で説明されるように、ビデオエンコーダ20は、動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための、本明細書で説明される技法の任意の組合せを実行するように構成され得る。具体的には、本開示のいくつかの技法は、導出ユニット49によって実行され得る。たとえば、導出ユニット49は、動き情報を示すデータをビットストリームに含めることなく現在のブロックの動き情報を決定するように構成され得る。
[0107]いくつかの事例では、導出ユニット49(および/またはモード選択ユニット40)は、レートひずみ分析に基づいて、ある特定のブロックのための動き導出を実行するかどうか(たとえば、イントラ予測か従来のインター予測か)を決定することができる。たとえば、導出ユニット49は、マージモードにおいてマージ候補に対して実行されるようなレートひずみコスト選択と同様の方式で、動き導出を実行するかどうかを決定することができる。この例では、導出ユニット49は、レートひずみコスト選択を使用して、複数の動き情報導出モード(たとえば、両側マッチングモード、テンプレートマッチングモードなど)の各動き情報導出モードを確認することができる。導出ユニット49はさらに、最小のコストを有する動き情報導出モードを他のPUモード(たとえば、イントラ予測モード、従来のインター予測モード、パレットコーディングモードなど)と比較することができる。動き導出モードがコーディング効率の観点で最も効率的なモードである事例では、ビデオエンコーダ20は、動き情報が現在のブロックに対して(シグナリングされるのではなく)導出されることを示す1つまたは複数のシンタックス要素を符号化することができる。ビデオエンコーダ20はまた、複数の動き情報導出モードから動き導出モードをインジケーションするために、1つまたは複数のシンタックス要素を符号化することができる。
[0108]他の例では、本開示の態様によれば、導出ユニット49は、ビデオシーケンスのための符号化されたビットストリームに含まれないビデオデータを補間することができる。たとえば、導出ユニット49は、たとえばフレームレートアップコンバージョンと同様に、ビットストリームに含まれないピクチャを補間するために動き導出技法の任意の組合せを実行することができる。いくつかの事例では、ビデオエンコーダ20は、補間されたピクチャを符号化の間に使用することができる。たとえば、導出ユニット49はピクチャを補間することができ、ビデオエンコーダ20は補間されたピクチャに対する現在のピクチャのデータを符号化することができる。この例では、ビデオエンコーダ20は、補間されたピクチャを参照ピクチャメモリ64に追加し、補間されたピクチャの少なくとも一部分に基づいて他のピクチャのデータを符号化することができる。
[0109]他の例では、導出ユニット49はピクチャを補間することができ、ビデオエンコーダ20は補間されたピクチャを現在のピクチャに等しく設定することができる。たとえば、導出ユニット49は現在のピクチャを補間することができ、ビデオエンコーダ20はビットストリームに含まれるべき現在のピクチャのためのシンタックスデータ(たとえば、スライスヘッダデータなど)を符号化することができるが、現在のピクチャのためのビデオデータの符号化をスキップすることができる。
[0110]導出ユニット49は、いくつかの導出および/または補間技法を実行するように構成され得るが、本明細書で説明されるように、ビデオエンコーダ20の1つまたは複数の他のユニットも、またはそれらが代わりに、データを補間するように構成され得ることを理解されたい。たとえば、ビデオエンコーダ20は、たとえば動き補償の間のサブピクセル(サブペル)ロケーションにおいてピクセルを補間するための、様々な他の補間器またはフィルタを含み得る。
[0111]ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって、残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に類似する変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、DCTに概念的に類似する他の変換を実行することができる。ウェーブレット変換、整数変換、サブバンド変換または他のタイプ変換も使用され得る。
[0112]いずれの場合でも、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、ピクセル値領域からの残差情報を、周波数領域などの変換領域に変換し得る。変換処理ユニット52は、得られた変換係数を量子化ユニット54へ送り得る。量子化ユニット54は、ビットレートをさらに低減するために、変換係数を量子化する。量子化プロセスは、係数の一部またはすべてと関連付けられるビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット54は次いで、量子化された変換係数を含むマトリックスの走査を実行し得る。代わりに、エントロピー符号化ユニット56が走査を実行し得る。
[0113]量子化の後に、エントロピー符号化ユニット56は、量子化された変換係数をエントロピーコーディングする。たとえば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディング、または別のエントロピーコーディング技法を実行し得る。コンテキストベースエントロピーコーディングの場合、コンテキストは隣接ブロックに基づき得る。エントロピー符号化ユニット56によるエントロピーコーディングに続いて、符号化されたビットストリームは、別のデバイス(たとえば、ビデオデコーダ30)に送信されるか、または後の送信もしくは取り出しのためにアーカイブされ得る。
[0114]逆量子化ユニット58および逆変換ユニット60は、たとえば参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構築するために、それぞれ逆量子化および逆変換を適用する。動き補償ユニット44は、残差ブロックを参照ピクチャメモリ64のフレームのうちの1つの予測ブロックに加えることによって参照ブロックを計算し得る。動き補償ユニット44はまた、動き推定において使用するためのサブ整数ピクセル値を計算するために、再構築された残差ブロックに1つまたは複数の補間フィルタを適用し得る。加算器62は、参照ピクチャメモリ64に記憶するための再構築されたビデオブロックを生成するために、動き補償ユニット44によって生成された動き補償された予測ブロックに、再構築された残差ブロックを加える。再構築されたビデオブロックは、後続のビデオフレーム中のブロックをインターコーディングするために動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
[0115]図3は、動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための技法を実施し得るビデオデコーダ30の例を示すブロック図である。図3の例では、ビデオデコーダ30は、ビデオデータメモリ68と、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、参照ピクチャメモリ82と、加算器80とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明された符号化パスとは全般に逆の復号パスを実行し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルに基づいて、予測データを生成することができるが、イントラ予測ユニット74は、エントロピー復号ユニット70から受信されたイントラ予測モードインジケータに基づいて、予測データを生成することができる。
[0116]復号プロセスの間に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化されたビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化されたビデオビットストリームを受信する。ビデオデータメモリ68に記憶されるビデオデータは、たとえば、コンピュータ可読媒体から、たとえば、カメラなどのローカルビデオソースから、ビデオデータのワイヤードもしくはワイヤレスネットワーク通信を介して、または物理データ記憶媒体にアクセスすることによって取得され得る。ビデオデータメモリ68は、符号化されたビデオビットストリームからの符号化されたビデオデータを記憶する、コーディングされたピクチャバッファ(CPB)を形成し得る。
[0117]参照ピクチャメモリ82は、たとえば、イントラコーディングモードまたはインターコーディングモードで、ビデオデコーダ30によってビデオデータを復号する際に使用するための参照ビデオデータを記憶する、DPBと呼ばれることがある。ビデオデータメモリ68および参照ピクチャメモリ82は、同期DRAM(SDRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM)、または他のタイプのメモリデバイスを含む、ダイナミックランダムアクセスメモリ(DRAM)などの、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ68および参照ピクチャメモリ82は、同じメモリデバイスまたは別個のメモリデバイスによって与えられ得る。様々な例では、ビデオデータメモリ68は、ビデオデコーダ30の他の構成要素とともにオンチップであってよく、またはそれらの構成要素に対してオフチップであってもよい。
[0118]ビデオデコーダ30のエントロピー復号ユニット70は、量子化された係数と、動きベクトルまたはイントラ予測モードインジケータと、他のシンタックス要素とを生成するために、ビットストリームをエントロピー復号する。エントロピー復号ユニット70は、動きベクトルと他のシンタックス要素とを動き補償ユニット72に転送する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
[0119]ビデオスライスがイントラコーディングされた(I)スライスとしてコーディングされるとき、イントラ予測ユニット74は、シグナリングされたイントラ予測モードと、現在のフレームまたはピクチャの、前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックの予測データを生成し得る。ビデオフレームが、インターコーディングされた(すなわち、B、PまたはGPB)スライスとしてコーディングされるとき、動き補償ユニット72は、エントロピー復号ユニット70から受信された動きベクトルと他のシンタックス要素とに基づいて、現在のビデオスライスのビデオブロックの予測ブロックを生成する。予測ブロックは、参照ピクチャリストの1つの中の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ82に記憶された参照ピクチャに基づくデフォルトの構築技法を使用して、参照フレームリスト、リスト0およびリスト1を構築し得る。
[0120]動き補償ユニット72は、動きベクトルと他のシンタックス要素とをパースすることによって現在のビデオスライスのビデオブロックの予測情報を決定し、復号されている現在のビデオブロックの予測ブロックを生成するために、この予測情報を使用する。たとえば、動き補償ユニット72は、ビデオスライスのビデオブロックをコーディングするために使用される予測モード(たとえば、イントラ予測またはインター予測)と、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)と、スライスのための参照ピクチャリストのうちの1つまたは複数に対する構築情報と、スライスの各々のインター符号化されたビデオブロックの動きベクトルと、スライスの各々のインターコーディングされたビデオブロックのインター予測ステータスと、現在のビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、受信されたシンタックス要素のいくつかを使用する。
[0121]動き補償ユニット72は、補間フィルタに基づいて補間を実行することもできる。動き補償ユニット72は、参照ブロックのサブ整数ピクセルの補間された値を計算するために、ビデオブロックの符号化の間にビデオエンコーダ20によって使用された補間フィルタを使用することができる。この場合に、動き補償ユニット72は、受け取られたシンタックス要素から、ビデオエンコーダ20によって使用された補間フィルタを決定し、予測ブロックを生成するためにその補間フィルタを使用することができる。
[0122]本開示の態様によれば、ビデオデコーダ30は、動き情報を導出し、ブロック区分を実行し、および/またはビデオデータを補間するための、本明細書で説明される技法の任意の組合せを実行するように構成され得る。具体的には、本開示のいくつかの技法は、導出ユニット75によって実行され得る。たとえば、本開示の態様によれば、導出ユニット75は、符号化されたビットストリームから動き情報を復号することなく現在のブロックの動き情報を決定するように構成され得る。
[0123]いくつかの事例では、導出ユニット75は、ある特定のブロックのための動き導出を実行するかどうか(たとえば、イントラ予測か従来のインター予測か)を決定することができる。たとえば、ビデオデコーダ30は、復号されているブロックのために動き情報が(シグナリングされるのではなく)導出されることを示す、1つまたは複数のシンタックス要素を復号することができる。ビデオデコーダ30はまた、ブロックを復号するために使用されるべき、複数の動き情報導出モードからの1つの動き情報導出モードを示す、1つまたは複数のシンタックス要素を復号することができる。導出ユニット75は、復号されたシンタックスに基づいて、動き導出を実行するかどうかと、ブロックのための動き情報導出モードとを決定することができる。いくつかの例では、本明細書で説明されるように、シンタックスは、マージモード、AMVP、または他の復号機能などの、1つまたは複数の他のモードと関連付けられ得る。
[0124]本開示の他の態様によれば、導出ユニット75は、ビデオシーケンスのための符号化されたビットストリームに含まれないビデオデータを補間することができる。たとえば、導出ユニット75は、たとえばフレームレートアップコンバージョンと同様に、パースされるビットストリームに含まれないピクチャを補間するために動き導出技法の任意の組合せを実行することができる。いくつかの事例では、ビデオデコーダ30は、補間されたピクチャを符号化の間に使用することができる。たとえば、導出ユニット75はピクチャを補間することができ、ビデオデコーダ30は補間されたピクチャに対する現在のピクチャのデータを復号することができる。この例では、ビデオデコーダ30は、補間されたピクチャを参照ピクチャメモリ82に追加し、補間されたピクチャの少なくとも一部分に基づいて他のピクチャのデータを復号することができる。
[0125]他の例では、導出ユニット75はピクチャを補間することができ、ビデオデコーダ30は補間されたピクチャを現在のピクチャに等しく設定することができる。たとえば、導出ユニット75は現在のピクチャを補間することができ、ビデオデコーダ30は符号化されたビットストリームから現在のピクチャのためのシンタックス要素(たとえば、スライスヘッダデータなど)を復号することができるが、現在のピクチャのためのビデオデータの復号をスキップし、代わりに現在のピクチャを補間することができる。
[0126]導出ユニット75は、いくつかの補間技法を実行するように構成され得るが、本明細書で説明されるように、ビデオデコーダ30の1つまたは複数の他のユニットも、またはそれらが代わりに、データを補間するように構成され得ることを理解されたい。たとえば、ビデオデコーダ30は、たとえば動き補償の間のサブピクセル(サブペル)ロケーションにおいてピクセルを補間するための、様々な他の補間器またはフィルタを含み得る。
[0127]逆量子化ユニット76は、ビットストリーム中で与えられ、エントロピー復号ユニット70によって復号された量子化された変換係数を逆量子化(inverse quantize)、すなわち逆量子化(de-quantize)する。逆量子化プロセスは、量子化の程度を決定し、同様に適用されるべき逆量子化の程度を決定するために、ビデオスライス中の各ビデオブロックに対してビデオデコーダ30によって計算される量子化パラメータQPYを使用することを含み得る。
[0128]逆変換ユニット78は、ピクセル領域において残差ブロックを生成するために、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用する。
[0129]動き補償ユニット72が、動きベクトルおよび他のシンタックス要素に基づいて現在のビデオブロックの予測ブロックを生成した後に、ビデオデコーダ30は、逆変換ユニット78からの残差ブロックを動き補償ユニット72によって生成された対応する予測ブロックと加算することによって、復号されたビデオブロックを形成する。加算器80は、この加算演算を実行する1つまたは複数の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために復号されたブロックをフィルタリングする、デブロッキングフィルタも適用され得る。他のループフィルタ(コーディングループの中、またはコーディングループの後のいずれかにおける)も、ピクセルの遷移を平滑化し、または場合によってはビデオ品質を改善するために使用され得る。所与のフレームまたはピクチャ内の復号されたビデオブロックは次いで、参照ピクチャメモリ82内に記憶され、参照ピクチャメモリ82は、後続の動き補償のために使用される参照ピクチャを記憶する。参照ピクチャメモリ82はまた、図1のディスプレイデバイス32などのディスプレイデバイス上で後で提示するための、復号されたビデオを記憶する。
[0130]図4Aおよび図4Bは、HEVCにおける空間的隣接候補を示す概念図である。いくつかの例では、ビデオエンコーダ20および/またはビデオデコーダ30は、PU0の隣接ブロック0、隣接ブロック1、隣接ブロック2、隣接ブロック3、または隣接ブロック4から、空間的動きベクトル(MV)候補を導出することができる。
[0131]いくつかの事例では、ブロックからMV候補を生成するための技法は、マージモードとAMVPモードとで異なる。図4Aは、マージモードの一例を示す。たとえば、HEVCでは、ビデオコーダ(たとえば、図1〜図3のビデオエンコーダ20および/またはビデオデコーダ30など)は、最高で4つの空間的MV候補を導出することができる。これらの候補は、特定の順序を有する候補リストに含められ得る。一例では、図4Aの例の順序は、隣接ブロック0(A1)、隣接ブロック1(B1)、隣接ブロック2(B0)、隣接ブロック3(A0)、および隣接ブロック4(B2)であり得る。
[0132]図4Bは、AMVPモードの一例を示す。たとえば、HEVCでは、ビデオコーダは、隣接ブロック0と隣接ブロック1とを含む左グループと、隣接ブロック2と隣接ブロック3と隣接ブロック4とを含む上グループという、2つのグループへと隣接ブロックを分けることができる。各グループについて、(現在コーディングされているブロックのための)シグナリングされた参照インデックスによって示された参照ピクチャと同じ参照ピクチャを参照する隣接ブロックと関連付けられる可能性のある動きベクトル候補が、グループの最終候補を形成するために選ばれるのに最高の優先度を有し得る。隣接ブロックのいずれも、同じ参照ピクチャを指す動きベクトルを含んでいない可能性がある。したがって、そのような候補が見つけられ得ない場合、ビデオコーダは、最終候補を形成するために最初の利用可能な候補をスケーリングすることができ、したがって、時間的距離差分が補償され得る。
[0133]本開示の態様によれば、図4Aおよび図4Bに示される隣接ブロックと関連付けられる動きベクトルなどの動きベクトル候補は、ブロックの動きベクトルを導出するために使用され得る。たとえば、ビデオコーダは、図4Aおよび図4Bに示される隣接ブロックからの動きベクトル候補を含む候補リストを生成することができる。この例では、ビデオコーダは、動き情報導出プロセス(たとえば、両側マッチング、テンプレートマッチングなど)において、候補リストの候補のうちの1つまたは複数を初期動きベクトルとして使用することができる。ビデオコーダは、参照データを識別するために、動きベクトル導出プロセスの動き探索において動きベクトル候補の1つまたは複数を適用することができる。ビデオコーダは、(たとえば、以下で図8〜図9に関して説明されるように)よく一致する参照データを識別する候補をリストから選択することができる。たとえば、ビデオコーダは、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することができる。いくつかの事例では、ビデオコーダはさらに、動き情報導出プロセスを使用して導出された動きベクトルを決定するために、たとえば、選択された候補によって示されるエリアの中で追加の動き探索を実行することによって、候補を改良することができる。
[0134]図5Aおよび図5Bは、HEVCにおける時間的動きベクトル予測を示す概念図である。時間的動きベクトル予測子(TMVP)候補は、有効であり利用可能である場合、空間的動きベクトル候補の後でMV候補リストに追加される。HEVCでは、TMVP候補のための動きベクトル導出のプロセスは、マージモードとAMVPモードの両方で同じであるが、マージモードにおけるTMVP候補のターゲット参照インデックスは、通常は0に設定される。
[0135]図5Aは、TMVP候補の主要なブロックロケーション(ブロック「T」として示されている)を示し、これはコロケートされたPUの外側の右下のブロックである。このロケーションは、空間的隣接候補を生成するために使用される上と左のブロックに対するバイアスを補償し得る。しかしながら、ブロックTが現在のCTBの行の外側に位置する場合、または動き情報が利用可能ではない場合、図5AのブロックTからの破線の矢印によって示されるように、そのブロックはPUの中央のブロックにより置き換えられる。
[0136]図5Bは、(たとえば、スライスヘッダにおいて)スライスレベルで示されるように、コロケートされたピクチャ92のコロケートされたPU90から現在のピクチャ88の現在のブロック86のためのTMVP候補84を導出することを示す。AVCにおける時間的直接モードと同様に、TMVP候補の動きベクトルは動きベクトルのスケーリングを受けることがあり、これは、距離の差、たとえばピクチャ間の時間的な距離を補償するために実行される。動きベクトルのスケーリングに関して、ビデオコーダ(ビデオエンコーダ20および/またはビデオデコーダ30など)は、動きベクトルの値が提示時間におけるピクチャの距離に比例すると初期に決定するように構成され得る。動きベクトルは、2つのピクチャ、すなわち、参照ピクチャと、動きベクトルを含んでいるピクチャ(すなわち、含有ピクチャ(containing picture))とを関連付ける。他の動きベクトルを予測するためにある動きベクトルが利用されるとき、含有ピクチャと参照ピクチャの距離は、ピクチャ順序カウント(POC)値に基づいて計算される。
[0137]予測されるべき動きベクトルについて、動きベクトルの関連する含有ピクチャと、動きベクトルの参照ピクチャの両方が異なり得る。したがって、ビデオコーダはPOC値に基づいて新しい距離を計算することができ、ビデオコーダはこれらの2つのPOC距離に基づいて動きベクトルをスケーリングすることができる。空間的隣接候補について、2つの動きベクトルのための含有ピクチャは同じであるが、参照ピクチャは異なる。HEVCでは、動きベクトルのスケーリングは、空間的隣接候補および時間的隣接候補のためのTMVPとAMVPの両方に適用される。
[0138]いくつかの例では、ビデオコーダは、1つまたは複数の人工的動きベクトル候補を決定するように構成され得る。たとえば、動きベクトル候補リストが完全ではない場合、ビデオコーダは、人工的動きベクトル候補を生成し、リストが所定の数のエントリを含むまでリストの最後に人工的動きベクトル候補を挿入することができる。マージモードでは、Bスライスのためだけに導出された複合候補を含む人工的MV候補と、ゼロ候補という2つのタイプがある。いくつかの事例では、ゼロ候補は、複合タイプが十分な人工的な候補を提供しない場合に、AMVPのためだけに使用される。
[0139]すでに候補リスト中にあり、必要な動き情報を有する候補の各ペアについて、双方向複合動きベクトル候補が、リスト0の中のピクチャを参照する第1の候補の動きベクトルとリスト1の中のピクチャを参照する第2の候補の動きベクトルとの組合せによって導出される。
[0140]本開示の態様によれば、図5Aおよび図5Bに示されるTMVPなどの動きベクトル候補は、ブロックの動きベクトルを導出するために使用され得る。たとえば、ビデオコーダは、上で説明された処理に従って決定されるTMVPを含む候補リストを生成することができる。この例では、ビデオコーダは、動き情報導出プロセス(たとえば、両側マッチング、テンプレートマッチングなど)において、TMVPを初期動きベクトルとして使用することができる。ビデオコーダは、参照データを識別するために、動きベクトル導出プロセスにおいてTMVPを適用することができる。ビデオコーダは、(たとえば、以下で図8〜図9に関して説明されるように)TMVPがよく一致する参照データを識別する事例において、TMVPを選択することができる。いくつかの事例では、ビデオコーダは、動き情報導出プロセスを使用して導出された動きベクトルを決定するために、TMVPをさらに改良することができる。
[0141]いくつかの例では、ビデオコーダは、(図4A〜図5Bに関して説明されたものなどの)動きベクトル候補を含む候補リストをプルーニングする(prune)ことができる。たとえば、いくつかの事例では、異なるブロックからの候補は偶然同じであることがあり、これはマージ/AMVP候補リストの効率を下げる。ビデオコードは、この問題を解決するためにプルーニングプロセスを適用することができる。ビデオコーダは、同一の候補を挿入するのを避けるために、ある候補を現在の候補リスト中の他の候補と比較することができる。複雑さを下げるために、ビデオコーダは、各々の可能性のある候補をすべての他の既存の候補と比較する代わりに、限られた数のプルーニングプロセスのみを適用することができる。
[0142]図6は、フレームレートアップコンバージョン(FRUC)における片側動き推定(ME)の例を示す概念図である。具体的には、図6は、現在のフレーム100と、参照フレーム102と、補間されたフレーム104とを示す。いくつかの事例では、ビデオデコーダまたは後処理デバイスは、1つまたは複数の参照ピクチャに基づいてピクチャを補間することができる。ビデオデコーダまたは後処理デバイスは、符号化されたビットストリームの元のフレームレートをアップコンバートするために、ピクチャを補間することができる。代わりに、ビデオデコーダまたは後処理デバイスは、低減されたフレームレートでビデオシーケンスを符号化するためにビデオエンコーダによってスキップされた1つまたは複数のピクチャを挿入するために、ピクチャを補間することができる。いずれの場合でも、ビデオデコーダまたは後処理デバイスは、復号されたピクチャ(現在のフレーム100および参照フレーム102など)を使用してビデオデコーダによって受信された、符号化されたビットストリームに含まれないフレーム(補間されたフレーム104など)を補間する。ビデオデコーダまたは後処理デバイスは、いくつかの補間技法のいずれかを使用して、たとえば、動き補償されたフレーム補間、フレーム反復、またはフレーム平均化を使用して、ピクチャを補間することができる。
[0143]上で述べられたフレーム補間技法は通常、ループ後に実施される。たとえば、ビデオデコーダは通常、現在のフレーム100と参照フレーム102とを含むビデオシーケンスの再構築された表現を生成するために、符号化されたビットストリームを受信して復号する。復号ループに続いて、ビデオデコーダまたは別の後処理デバイスは、補間されたフレーム104を含む再構築された表現とともに含まれるべきピクチャを補間することができる。いくつかの事例では、ピクチャを補間するプロセスは、フレームレートアップコンバージョン(FRUC)と呼ばれることがあり、それは、ピクチャの得られたシーケンスが、符号化されたビットストリームに含まれなかった追加の(補間された)ピクチャを含むからである。
[0144]したがって、FRUC技術は、低フレームレートのビデオに基づいて高フレームレートのビデオを生成するために使用され得る。FRUCはディスプレイ業界において使用されてきた。例は、H. Liu, R. Xiong、D. Zhao、S. Ma、W. Gao、「Multiple Hypotheses Bayesian Frame Rate Up−Conversion by Adaptive Fusion of Motion−Compensated Interpolations」、IEEE transactions on circuits and systems for video technology、vol. 22、No. 8、2012年8月、W. H. Lee、K. Choi、J. B. Ra、「Frame rate up conversion based on variational image fusion」、IEEE transactions on image processing、vol. 23、No. 1、2014年1月、およびU. S. Kim、M. H. Sunwoo、「New frame rate up−conversion algorithms with low computational complexity」、IEEE transactions on circuits and systems for video technology、vol. 24、No. 3、2014年3月を含む。
[0145]FRUCアルゴリズムは2つのタイプに分けられ得る。一方のタイプの方法は、単純なフレーム反復または平均化によって中間フレームを補間する。しかしながら、この方法は、多くの動きを含むピクチャでは不適切な結果をもたらす。動き補償されたFRUC(MC−FRUC)と呼ばれる他方のタイプの方法は、それが中間フレームを生成するときにオブジェクトの動きを考慮し、動き推定(ME)および動き補償された補間(MCI:motion-compensated interpolation)という2つのステップからなる。MEは、ベクトルを使用してオブジェクトの動きを表す動きベクトル(MV)を生成し、一方でMCIは、中間フレームを生成するためにMVを使用する。
[0146]ブロックマッチングアルゴリズム(BMA)が、実装が簡単であるため、MC−FRUCにおいてMEのために広く使用されている。BMAは、画像をブロックに分け、たとえばブロックが対応するかどうかを決定するために、それらのブロックの動きを検出する。片側MEおよび両側MEという、2つの種類のMEがBMAのために主に使用される。
[0147]図6に示されるように、片側MEは、現在のフレーム100の参照フレーム102からベストマッチのブロックを探すことによって、MVを取得する。次いで、MVが達成されるように、補間されたフレームの中の動きの軌跡(trajectory)の上にあるブロックが位置特定され(be located)得る。図6に示されるように、現在のフレーム100からの106Aと、106Bと、106Cとを含む3つのブロック、参照フレーム102、および補間されたフレーム104がそれぞれ、動きの軌跡をたどることに関与する。現在のフレーム100の中のブロック106Aはコーディングされたブロックに属するが、参照フレーム102の中のベストマッチのブロック106Bはコーディングされたブロックに完全には属さないことがあり、補間されたフレーム104の中のブロック106Cもコーディングされたブロックに属さない。その結果、ブロックのオーバーラップされた領域と満たされていない(ホールの(holes))領域が、補間されたフレームの中に生じ得る。
[0148]オーバーラップに対処するために、単純なFRUCアルゴリズムは、オーバーラップされたピクセルを平均化して上書きすることを伴うだけである。その上、ホールは参照フレームまたは現在のフレームからのピクセル値によってカバーされる。しかしながら、これらのアルゴリズムはブロッキングアーティファクトとぼけ(blurring)をもたらす。したがって、ブロッキングアーティファクトとぼけを増やすことなくホールとオーバーラップに対処するために、動きフィールドのセグメント化、離散ハートレー変換を使用した連続的な外挿(extrapolation)、および画像のインペインティング(inpainting)が提案されている。
[0149]本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20および/またはビデオデコーダ30など)は、図6に示される片側マッチング技法を使用して、符号化ループまたは復号ループにおいて補間されたフレーム104を生成することができる。たとえば、ビデオコーダは、再構築されたピクセルアレイを使用して、現在のピクチャの予測子として補間されたフレーム104を補間するために、ピクチャレベルのFRUCを使用することができる。いくつかの例では、そのような補間されたピクチャは、参照ピクチャまたは現在のフレーム100の再構築であると見なされ得る。他の例では、ビデオコーダは、現在のピクチャを補間されたピクチャに等しく設定することができる。そのようなピクチャは、シンタックス要素または復号プロセスによって、廃棄可能なピクチャおよび/または非参照ピクチャとしてマークされ得る。
[0150]いくつかの例では、ビデオコーダは、FRUCモードが唯一の許可されるモードであるように現在のピクチャを補間することができ、ここで、FRUCモードは、図6に示される片側マッチング技法、または本明細書で説明される任意の他の動き情報導出技法もしくは補間技法を示す。したがって、4分木ベースのCU構造のシグナリングの代わりに、すべてのブロックが、同じ事前に定義されたサイズまたはシグナリングされたサイズを有し得る。いくつかの事例では、通常のスキップ、通常のマージ、FRUCモード、およびイントラモードなどの、有効なCUコーディングモードのサブセットのみが許可され得る。代わりに、または加えて、FRUCのためのホールフィリング(hole filling)モードが、そのようなピクチャまたはスライスにおいて許可され得る。
[0151]本開示の態様によれば、どのピクチャまたはピクチャのサブシーケンスがピクチャレベルのFRUCによってコーディングされるかを示すための、SEIメッセージが導入され得る。そのようなピクチャは、他のピクチャの品質に影響を与えることなく廃棄され得る。そのようなSEIメッセージは、どの(1つまたは複数の)時間的レベルがFRUCコーディングされたピクチャを含むか、またはFRUCコーディングされたピクチャだけを含むかを示す(または追加で示す)ことができる。SEIメッセージ中のそのような情報はまた、PPS、SPS、およびVPSなどの、高レベルシンタックスの他の場所として提示され得る。
[0152]いくつかの例では、ビデオコーダは、ピクチャの一部分をコーディングし、残りのビデオデータを補間することができる。たとえば、ビデオコーダは、デコーダ側のフレームレートアップコンバージョンのためのいわゆる「ヒント」をコーディングすることができ、このヒントは、スマートなデコーダまたはリソースの豊富なデコーダがFRUCフレームを任意選択で生成することを可能にし得る。たとえば、そのようなFRUCフレームのためのヒントとして、いくつかの重要な領域(長方形の領域など)がシグナリングされ得る。ヒントが受信され任意選択で処理されるとき、デコーダの一部として指定されるFRUC方法は、重要な領域ではない領域に対して最初に使用され得るが、重要な領域は、ホールフィリング方法などの、デコーダによって指定されないことがある手段によって、さらに処理されなければならない。
[0153]ホールフィリングに関して、本開示の態様によれば、ビデオコーダは、ブロックベースのホールフィリング技法を実施することができる。たとえば、あるホールフィリング技法は、同じCTUの中の現在のイントラブロックを予測するために、空間的に隣接するインターブロックを使用することになる。たとえば、ビデオコーダはCTUを2回符号化/復号することができる。最初の符号化/復号は普通である。2回目では、イントラブロックだけが符号化/復号され、上書きされる。あるイントラブロックに対して、現在のブロックの右下のインターブロックを含む、同じCTUの中の、そのイントラブロックに空間的に隣接するすべてのインターブロックが、イントラ予測に利用可能であるものとしてマークされる。ホールフィリング方法はまた、スライスレベル、タイルレベル、ピクチャレベル、他の任意の他のレベルであり得る。別のホールフィリング方法は、画像インペインティング技法を使用し得る。他のホールフィリング技法も適用され得る。
[0154]図7は、FRUCにおける両側動き推定(ME)の例を示す概念図である。具体的には、図7は、現在のフレーム114の現在のブロック112および参照フレーム118の参照ブロック116から補間される、補間されたフレーム110の補間されたブロック108を示す。図7に示されるように、両側MEは、図6に示されるオーバーラップおよびホールによって引き起こされる問題を回避するために使用され得る(MC−FRUCにおける)別の解決法である。両側MEは、それぞれ、現在のフレーム114のブロック112と参照フレーム118のブロック116との間の時間的な対称性を使用して、補間されたブロック108を通るMVを取得する。結果として、それはオーバーラップとホールを生成しない。現在のブロックは、たとえばビデオコーディングの場合のように、ある順序で処理されているブロックであると仮定されるので、そのようなブロックのシーケンスは、オーバーラップを伴わずに中間ピクチャ全体をカバーする。たとえば、ビデオコーディングの場合、ブロックは復号順序で処理され得る。
[0155]本開示の態様によれば、図7の例に示される両側動き推定が、動き情報を導出するために利用され得る。たとえば、以下で図9に関してより詳細に説明されるように、ビデオコーダ(ビデオエンコーダ20またはビデオデコーダ30など)は、コーディングの間に動き情報を導出するために、動き情報導出モードとして両側マッチングを適用することができる。両側マッチングでは、ビデオコーダは、第2の参照ピクチャの中の参照データの第2のセットに対応する第1の参照ピクチャの中の参照データの第1のセットに対する動き探索を実行することができる。
[0156]本開示の他の態様によれば、ビデオコーダ(ビデオエンコーダ20および/またはビデオデコーダ30など)は、図7に示される両側マッチング技法を使用して、符号化ループまたは復号ループにおいて補間されたフレームを生成することができる。たとえば、ビデオコーダは、再構築されたピクセルアレイを使用して、現在のピクチャの予測子として補間されたピクチャを補間するために、ピクチャレベルのFRUCを使用することができる。いくつかの例では、そのような補間されたピクチャは、参照ピクチャまたは現在のピクチャの再構築であると見なされ得る。他の例では、ビデオデコーダは、現在のピクチャを補間されたピクチャに等しく設定することができる。そのようなピクチャは、シンタックス要素または復号プロセスによって、廃棄可能なピクチャおよび/または非参照ピクチャとしてマークされ得る。
[0157]図8は、デコーダ側動きベクトル導出(DMVD)に基づくテンプレートマッチングの例を示す概念図である。高度なビデオコーデックでは、ビットストリーム中の動き情報のビットの割合はより高くなる。いくつかの事例では、DMVDは動き情報のビットコストを低減することができる。テンプレートマッチングベースのDMVDは、たとえば、S. Kamp、M. Wien、「Decoder−side motion vector derivation for block−based video coding」、IEEE transactions on circuits and systems for video technology、vol. 22、No. 12、2012年12月において説明されるように、コーディング効率の改善を示し得る。
[0158]図8の例では、現在のピクチャ120は、予測ターゲット122(たとえば、現在コーディングされているブロック)とテンプレート124とを含む。参照ピクチャ126は、コロケートされたテンプレート128と、ベストマッチ130と、変位ベクトル132とを含む。ビデオコーダ(ビデオエンコーダ20および/またはビデオデコーダ30など)は、(たとえば、まだコーディングされていない予測ターゲット122自体を使用するのではなく)予測ターゲット122に対するベストマッチを探すためにテンプレート124を使用することができる。たとえば、ビデオコーダは、予測ターゲット122の外側の参照データの第2のセット(たとえば、テンプレート124)に対応する参照データの第1のセット(たとえば、ベストマッチ130)を識別するために動き探索を実行することができる。上で述べられたように、一致は、参照データ間の類似性の程度に基づいて決定されることがあり、本明細書では「マッチ」または「ベストマッチ」を決定することとして呼ばれることがある。
[0159]示される例では、ビデオコーダは、参照ピクチャ126の中のコロケートされたテンプレート128を識別することができる。ビデオコーダは次いで、テンプレート124と類似するピクセル値を含むベストマッチ130を探すことができる。ビデオコーダは、参照ピクチャ126の中のコロケートされたテンプレート128とベストマッチ130との変位に基づいて、変位ベクトル132を決定することができる。
[0160]テンプレート124および予測ターゲット122が同じオブジェクトからのものであると仮定すると、テンプレートの動きベクトルは、予測ターゲットの動きベクトルとして使用されることが可能である。したがって、図8の例では、ビデオコーダは、変位ベクトル132を予測ターゲット122に適用することができる。テンプレートマッチングがビデオエンコーダとビデオデコーダの両方において行われるので、動きベクトルは、シグナリングコストを避けるためにデコーダ側で導出され得る。
[0161]本開示の態様によれば、ビデオコーダは、動き情報導出モードとしてテンプレートマッチングを適用することができる。たとえば、ビデオコーダは、現在のピクチャのテンプレート124と参照ピクチャ126の中の対応する参照データとの間のベストマッチを見つけること(locating)によって、現在のブロックの動き情報を導出するために、テンプレートマッチングを適用することができる。図8の例はビデオデータのL型ブロックとしてテンプレート124を示すが、他のテンプレートも使用され得ることを理解されたい。たとえば、ビデオコーダは、複数のブロック、たとえば予測ターゲット122の左に位置する1つまたは複数のブロックおよび予測ターゲット122の上に位置する1つまたは複数のブロックを、テンプレートとして使用することができる。
[0162]本開示の態様によれば、ビデオコーダは、動きベクトルの候補リストからの1つまたは複数の動きベクトルを使用して、図8に示されるテンプレートマッチング技法を適用することができる。たとえば、ビデオコーダは、本明細書で説明される技法(たとえば、マージモード候補、AMVP候補、TMVPなど)の任意の組合せを使用して、1つまたは複数の候補動きベクトルを決定するように構成され得る。ビデオコーダは次いで、コロケートされたテンプレート128を位置特定するために、候補動きベクトルの1つまたは複数をテンプレート124に適用するように構成され得る(この例では、コロケートされたテンプレート128のロケーションは、1つまたは複数の候補動きベクトルによって記述され、必ずしも厳密にコロケートされていない)。ビデオコーダは、候補動きベクトルのうちのいずれがテンプレート124とコロケートされたテンプレート128との間のベストマッチをもたらすかを決定するように構成され得る。
[0163]本開示の態様によれば、ビデオコーダは次いで、予測ターゲット122の動き情報を導出するために、候補動きベクトルを改良するように構成され得る。たとえば、ビデオコーダは、候補動きベクトルによって識別される参照ピクチャ126の領域において、テンプレート124に対するベストマッチを探すことができる。ベストマッチを決定すると、ビデオコーダは、テンプレート124と決定されたベストマッチとの間の変位を決定することができる。ビデオコーダは、この変位を、予測ターゲット122の導出された動きベクトルとして指定することができる。
[0164]図9は、DMVDにおける双方向動きベクトル導出の例を示す概念図である。DMVDの別のカテゴリは、たとえば、Y.−J. Chiu、L. Xu、W. Zhang、H. Jiang、「Decoder−side Motion Estimation and Wiener filter for HEVC」、Visual communications and Image Processing (VCIP)、2013年において記述されているような、ミラーベースの双方向MV導出である。DMVDにおける双方向動きベクトル導出の概念は、FRUCにおける両側MEと類似していることがある。たとえば、ミラーベースのMV導出は、分数サンプルの精度で、探索中心の周りの中心対称の(Centro-symmetric)動き推定によって適用され得る。
[0165]図9の例は、現在のブロック142(現在コーディングされているブロック)を有する現在のピクチャ140と、第1の参照ピクチャ146(L0 ref)の第1のテンプレートブロック144を識別する第1の候補動きベクトルPMV0と、第2の参照ピクチャ150の第2のテンプレートブロック148を識別する第2の候補動きベクトルPMV1とを含む。ビデオコーダは、第1の参照ピクチャ146の探索ウィンドウ154において第1の参照ブロック152を位置特定し、第2の参照ピクチャ150の探索ウィンドウ158において第2の参照ブロック156を位置特定するために、dMVをオフセットとして適用することができる。
[0166]たとえば、ビデオコーダは、MVのペアであるMV0とMV1とを生成するために、dMVをPMV0に加算し、PMV1からdMVを減算することができる。ビデオコーダは、dMVのどの値がL0 refの第1の参照ブロック152(たとえば、参照データの第1のセット)とL1 refの第2の参照ブロック156(たとえば、参照データの第2のセット)との間のベストマッチをもたらすかを決定するために、探索ウィンドウ154および158の内部のdMVのすべての値を確認することができる。いくつかの例では、ビデオコーダは、絶対差分和(SAD)に基づいてベストマッチを決定することができる。他の例では、ビデオコーダは、ベストマッチを決定するために別のメトリックを使用することができる。探索ウィンドウ154および158のサイズおよびロケーションは、事前に定義されることがあり、またはビットストリームにおいてシグナリングされることがある。
[0167]ビデオコーダは、中心対称の動き推定の出力として、最小のSADを有するMVペアを選択することができる。この技法は、未来の参照(現在のフレームより時間的に後の位置における参照)とより早い参照(現在のフレームより時間的に早い位置における参照)とをSADマッチングのために使用するので、前者の参照しか利用可能ではないPフレームまたは低遅延のBフレームに、この技法が適用されることは可能ではない。
[0168]本開示の態様によれば、ビデオコーダは、動き情報導出モードとして双方向動きベクトル導出技法を適用することができる。いくつかの例では、ビデオコーダは、動きベクトルの候補リストからの1つまたは複数の動きベクトルを使用して、図9に示される技法を適用することができる。たとえば、ビデオコーダは、本明細書で説明される技法(たとえば、マージモード候補、AMVP候補、TMVPなど)の任意の組合せを使用して、1つまたは複数の候補動きベクトルを決定するように構成され得る。ビデオコーダは次いで、第1のテンプレートブロック144と第2のテンプレートブロック148とを位置特定するために、候補動きベクトルの1つまたは複数をPMV0および/またはPMV1として適用するように構成され得る。ビデオコーダは、候補動きベクトルのうちのいずれが第1のテンプレートブロック144と第2のテンプレートブロック148との間のベストマッチをもたらすかを決定するように構成され得る。
[0169]本開示の態様によれば、ビデオコーダは次いで、現在のブロック142の動き情報を導出するために、候補動きベクトルを改良するように構成され得る。たとえば、ビデオコーダは、上で説明された方式で、dMVの様々な値を適用することによってベストマッチを探すことができる。このようにして、ビデオコーダは、MVペアであるMV0とMV1とを導出することができる。
[0170]図11は、拡張両側マッチングベースの動きベクトル導出を示す概念図である。(たとえば、図10に示されるような)ミラーベースの双方向MV導出の1つの潜在的な欠点は、現在のピクチャの2つの参照が現在のピクチャよりもともに早いとき、またはともに遅いときに機能しないということである。本明細書で説明される拡張両側マッチング技法は、いくつかの事例において、現在のピクチャのすべての参照ピクチャが(表示順序において)現在のピクチャと同じ側にあるという欠点を克服することができる。
[0171]図11の例は、現在のブロック162を含む現在のピクチャ160と、第1の参照ブロック166を含む第1の参照ピクチャ(Ref0)164と、第2の参照ブロック170を含む第2の参照ピクチャ(Ref1)168とを含む。図11に示されるように、第1の参照ピクチャ(Ref0)164および第2の参照ピクチャ(Ref1)168はともに、時間的な方向において現在のピクチャの前に位置する。第1の参照ブロック166、第2の参照ブロック170、および現在のブロック162が同じ動きの軌跡に沿っていると仮定すると、MV0とMV1との間の比率は、時間的な距離TD0とTD1との間の比率に等しいはずである。言い換えると、現在のピクチャに対する時間的な距離TD0およびTD1を有する2つの参照Ref0およびRef1を仮定すると、Ref0の中の任意のMV0に対して、Ref1の中のMV1はMV0をスケーリングして決定され得る。
[0172]ビデオコーダは、(たとえば、図10に関して上で説明されたように)MV0によって指し示されるブロックペアとMV1によって指し示されるブロックペアとの間のマッチングコストを最小にするペアとして、最終的なMV0とMV1のペアを選択することができる。理論的には、現在のブロック162は、第1の参照ブロック166および第2の参照ブロック170に基づいて外挿された(extrapolated)ブロックであると見なされ得る。拡張両側マッチングは、現在のピクチャが時間的に2つの参照と参照の間にある通常の双方向の場合においても機能することに、留意されたい。この場合、現在のブロック162は、第1の参照ブロック166および第2の参照ブロック170に基づいて補間されたブロックであると見なされ得る。その上、本明細書で説明される両側マッチング技法は、双方向の場合であっても、MV0とMV1との間の「ミラー関係」を必要としない。両側マッチングの仮定は、MV0とMV1との間の比率が、Ref0から現在のピクチャまでの時間的な距離とRef1から現在のピクチャまでの時間的な距離との間の比率に比例しているというものである。
[0173]明らかに、第1の参照ブロック166および第2の参照ブロック170以外の参照ブロックに対して、ビデオコーダは異なるMVペアを導出することができる。一例では、ビデオデコーダは、参照ピクチャが参照ピクチャリストにおいて出現する順序に従って、両側マッチングを実行するための参照ピクチャを選択することができる。たとえば、ビデオコーダは、参照リスト0の中の第1の参照をRef0として、参照リスト1の中の第1の参照をRef1として選択することができる。ビデオコーダは次いで、MVペア(MV0、MV1)を探すことができる。別の例では、ビデオコーダは、初期リスト(たとえば、初期動きベクトル候補リスト)の中のエントリに基づいてRef0を選択する。ビデオコーダは次いで、現在のピクチャに時間的に最も近い他の参照ピクチャリスト中のある参照ピクチャに、Ref1を設定することができる。その結果、ビデオコーダは、Ref0およびRef1においてMVペア(MV0,MV1)を探すことができる。
[0174]したがって、本開示の態様によれば、ビデオコーダは、動き情報導出モードとして図11に示される拡張双方向動き導出技法を適用することができる。たとえば、ビデオコーダは、2つの異なる参照ピクチャにおいて、現在のブロックの動きの軌跡に沿った2つのブロック(たとえば、第1の参照ブロック166および第2の参照ブロック170など)の間のベストマッチを見つけることによって、現在のブロック162の動き情報を導出するために両側マッチングを使用することができる。連続的な動きの軌跡という仮定のもとでは、2つの参照ブロックである第1の参照ブロック166および第2の参照ブロック170を指し示す動きベクトルMV0およびMV1は、現在のピクチャと2つの参照ピクチャとの間の時間的な距離、すなわちTD0およびTD1に比例するはずである。ある特別な場合、現在のピクチャ160が、(図10の例に示されるように)時間的に2つの参照ピクチャと参照ピクチャの間にあり、現在のピクチャから2つの参照ピクチャまでの時間的な距離が同じであるとき、両側マッチングはミラーベースの双方向MVになる。
[0175]図11は、DMVDを使用して予測ユニット(PU)を復号する例を示すフローチャートである。Y.−J. Chiu、L. Xu、W. Zhang、H. Jiang、「Decoder−side Motion Estimation and Wiener filter for HEVC」、Visual communications and Image Processing (VCIP)、2013年において、ミラーベースの双方向MV導出を、HEVCにおけるマージモードと組み合わせることがさらに提案された。提案された技法では、DMVDモードが現在のPUに適用されるかどうかを示すために、BスライスのPUに対してpu_dmvd_flagと呼ばれるフラグが追加される。DMVDモードはビットストリームにおいていずれのMV情報も明示的には送信しないので、pu_dmvd_flagシンタックス要素は、(動きベクトル自体ではなく動きベクトルを表すデータのインデックスを使用する)HEVCにおけるマージモードのシンタックスと統合される。
[0176]図11の例では、ビデオデコーダ(ビデオデコーダ30など)がPUを復号することを開始し得る(180)。ビデオデコーダ30は、たとえばPUを含むビットストリームに含まれるシンタックスに基づいて、PUを復号するために使用されるモードがマージモードであるかどうかを決定することができる(182)。マージモードが使用されない場合(ステップ182の「no」の分岐)、ビデオデコーダ30は、PUを復号して(184)プロセスを終了する(186)ために、非マージPUのための通常のプロセスを使用することができる。
[0177]マージモードが使用される場合(ステップ182の「yes」の分岐)、ビデオデコーダ30は、pu_dmvd_flagシンタックス要素の値に基づいて、DMVDがPUの動き情報を決定するために使用されるかどうかを決定することができる(188)。DMVDが使用されない場合(ステップ188の「no」の分岐)、ビデオデコーダ30は、PUを復号して(190)プロセスを終了する(186)ために、通常のマージモードを使用することができる。DMVDが使用される場合(ステップ188の「yes」の分岐)、ビデオデコーダ30は、PUの動き情報を決定して(192)プロセスを終了する(186)ために、DMVDプロセスを適用することができる。
[0178]いくつかの事例では、現在のビデオコーディング技法はいくつかの制約を有し得る。たとえば、いくつかのDMVD技法は、FRUC技術のサブセットとして見なされることがある。DMVDはビデオコーディングにおいて適用されてきたが、他の効率的なFRUC技法は、ビデオコーディングにおいて、たとえばビデオエンコーダまたはビデオデコーダによるビデオコーディングループにおいて実施されてこなかった。加えて、DMVDの様々な技法が提案されてきたが、そのような技法の相互作用およびオーバーラップはデコーダにおいて利用されていない。すなわち、1つだけのDMVDモードが他のビデオコーディングシステムにおいて使用されてきた。コーディング効率をさらに改善するために複数のDMVD技法を使用する方式は、研究されていない。
[0179]別の可能性のある制約として、DMVDは、ビデオデータの比較的大きいブロックにのみ適用され得るので、あまり効率的ではないことがある。より小さいブロックにそのような方法を適用することは、シグナリングコストが原因の大きなオーバーヘッドにつながり得る。いくつかの事例では、従来のDMVD技法の探索範囲は比較的小さいことがあり、いくつかの点、たとえば16個の点だけが探索される。加えて、上で述べられたように、ミラーベースの双方向MV導出は低遅延Bの場合には適用されることが可能ではなく、それは、現在のピクチャの前または後の表示順序を有する2つの参照ピクチャが識別される必要があり、これは低遅延の場合には不可能であるからである。
[0180]別の可能性のある制約は、デコーダにおいて、従来のDMVD技法のマッチングコストがひずみしか考慮しないことがあるということであり得る。しかしながら、動きベクトルの大きさ(magnitude)はマッチングコストにおいて考慮されておらず、これは、たとえばピクセル領域のノイズが原因の、局所的な最適化またはマッチングの不正確な結果につながり得る。その上、従来のDMVD技法の複雑さは、特にデコーダにおける探索の間に分数ペル(fractional-pel)動きベクトルのために補間が必要であるという事実が原因で、メモリ帯域幅と計算の複雑さの両方に関して比較的高いことがある。
[0181]本開示の技法は、上で説明された可能性のある制約の1つまたは複数に対処し得る。いくつかの例では、動き情報を導出するための技法は、個別に適用され得る。代わりに、本明細書で説明される技法の任意の組合せが、一緒に適用され得る。本明細書で説明されるように、参照インデックス情報は一般に、動き情報の一部と見なされ得る。いくつかの事例では、動きベクトル情報および参照インデックス情報は、動き情報のセットと呼ばれ得る。
[0182]本開示のいくつかの技法は、複数の可能性のある動き導出モードからある動き導出モードを選択することを含む。たとえば、本開示の態様によれば、ビデオコーダ(たとえば、ビデオエンコーダ20またはビデオデコーダ30)は、ビットストリームにおける動き情報のシグナリングを避けるためにビデオデコーダにおいて動き情報のより良好な予測を行うために、2つ以上の動き導出技法を使用することができる。2つ以上の動き導出技法は、限定はされないが、両側マッチング、テンプレートマッチング、および任意の他のマッチング方法を含み得る。これらの技法は一般に、動き情報導出モードまたはFRUCモードと呼ばれ得る。したがって、いくつかの事例では、FRUCモードと呼ばれる技法は代わりに、(たとえば、ビデオデータの新しいブロックを補間するためではなく)現在のブロックの動き情報を補間するために使用され得ることを理解されたい。
[0183]いくつかの例では、複数の動き導出方法が使用されるとき、異なる導出方法に対して異なる最適化方法を有する代わりに、動き導出方法の2つ以上に対して最良の動きを見つけるためのプロセスは、探索の開始点の選択と、開始点の周りでどのように探すかということとに関して、アラインされ(be aligned)得る。たとえば、ビデオコーダは、動きベクトル候補リストを構築し、リストから初期候補を選択し、同じ探索およびマッチングの技法を使用して候補を改良することができる。この例では、双方向動き導出およびテンプレートマッチングベースの動き導出は、デコーダ側において適応的な方式で使用され得る。
[0184]本開示の態様によれば、どの動き導出方法が現在のブロックをコーディングするために使用されるかを識別するために、ブロックレベルでの追加のシグナリングが導入される。たとえば、ビデオコーダは、動き情報導出が有効にされるかどうかを示すために、1つまたは複数のシンタックス要素をコーディングすることができる。ビデオコーダはまた、複数の可能性のあるモードからある特定の動き情報導出モードを示すために、1つまたは複数のシンタックス要素をコーディングすることができる。他の例では、使用されるべき動き情報導出技法は、シグナリングされないことがあるが、たとえば、現在のブロックが復号される前に利用可能な予測モードまたは他の情報に基づいて、ビデオデコーダにおいて導出されることがある。さらに他の例では、ビデオコーダは、複数の動き情報導出モードを実行し、現在のブロックをコーディングするために2つ以上の導出技法から予測の加重平均(weighted average)を決定することができる。
[0185]説明を目的とする例では、ビデオデコーダ30などのビデオデコーダはまず、(たとえば、ビットストリーム中のシンタックスに基づいて)動き情報補間モードを適用するかどうかを識別することができる。ビデオデコーダ30は次いで、(たとえば、ビットストリーム中のシンタックスに基づいて)どの動き情報導出モードが適用されるべきかを特定することができる。一例では、複数の動き導出方法、たとえば拡張両側マッチングモードとテンプレートマッチングモードの両方が同時にサポートされるとき、どの動き導出方法が現在のブロックに対して実際に使用されているかを示すために、ビットストリームにおいてインデックス値がシグナリングされ得る。このインデックスは、オフと、拡張両側マッチングと、テンプレートマッチングとを含む、3つの値を有し得る。
[0186]CABACコーディングを使用するとき、インデックスを表すために2つのビンが使用され得る。これらの2つのビンの両方が空間的なネイバーをコンテキストとして使用することがあり、またはそれらのうちの1つだけが空間的なネイバーコンテキストを使用する。代わりに、一方または両方のビンが、CU深度などの他のコーディングされる情報を、コンテキストとして使用し得る。オフに対しては「0」、拡張両側マッチングに対しては「10」、テンプレートマッチングに対しては「11」などの、インデックスのバイナリ化が事前に定義され得る。代わりに、インデックスのバイナリ化は、スライスヘッダにおいてシグナリングされることがあり、またはスライスタイプ、時間的レベル、もしくはQP情報などのコーディングされた情報から導出されることがある。
[0187]本開示の態様によれば、動き情報導出モードを示すシンタックスが、別のコーディングモードとともに含まれることがある。一例では、動き情報導出モードは、特定のマージ候補であると見なされることがあるので、マージインデックスによって示されることがある。この場合、マージ候補リストのサイズは、追加のインデックスを収容するように増やされ得る。動き情報導出モードのマージ候補インデックスは、事前に定義されることがあり、またはビットストリームにおいてシグナリングされることがある。
[0188]いくつかの例では、拡張両側マッチングおよびテンプレートマッチングはともに、マージモードとともにサポートされる。そのような例では、merge_flagが1に等しいとき、動き情報が現在のPUのために導出されるかどうかを示すために、新しい動き情報導出フラグがシグナリングされる。このフラグは、上および左のブロックなどのその空間的なネイバーの同じフラグを、CABACコーディングのコンテキストとして使用し得る。このフラグがオンであるとき、どの動き情報導出モード(たとえば、拡張両側マッチングまたはテンプレートマッチング)がブロックの動き情報を導出するために使用されるかを示すために、第2のフラグがシグナリングされる。動き導出がオンであるとき、現在のモードがマージモードであるときでも、マージインデックスはシグナリングされない。代わりに、または加えて、PUが復号順序においてCUの最初のPUではない場合、ある特定の動き情報導出(たとえば、テンプレートマッチングなど)が許可されない。この場合、拡張両側マッチングがPUのために使用されるかどうかを示すためのフラグだけが、シグナリングされる必要がある。
[0189]別の例では、動き情報導出モードは、たとえばPUレベルにおいて、AMVPモードと組み合わされ得る。一例では、動き情報導出モードを示すために、追加のシンタックス要素(たとえば、追加のフラグ)がシグナリングされ得る。このモードがオンであるとき、AMVPインデックスはビットストリームにおいてシグナリングされないことがある。それ以外の場合、通常のAMVPインデックスがビットストリームにおいてシグナリングされ得る。別の例では、動き情報導出モードは、AMVP候補リストの中の、第1のAMVP候補などのある特定のAMVP候補として見なされることがある。いくつかの事例では、AMVPモードと組み合わされるとき、動きベクトルはサブPUレベルで導出されないことがある。
[0190]他の態様によれば、ビデオコーダは最初に、現在のCU内のすべてのPUが動き情報導出モードを使用するかどうかを示すために、(たとえば、インターコーディングされたCUのための)CUレベルフラグを条件付きでコーディングすることができる。一例では、PUレベルフラグはシグナリングされない。別の例では、CUフラグが0に等しい(すなわち、すべてのPUがそのモードでコーディングされるのではない)とき、第1のPUのPUレベルフラグがさらに、第2のPUがPUレベルフラグを含まない間にシグナリングされる。
[0191]いくつかの例では、動き情報導出モードは、特定のスライスタイプ、時間的レベル、ブロックタイプ、またはブロックサイズに対しては無効にされ得る。一例では、動き情報導出は、それらの時間的位置がすべて現在のピクチャの前または後になる参照ピクチャだけを現在のスライスが含むとき、許可されない。別の例では、動き情報導出は、2Nx2NではないPUに対しては許可されない。動き情報導出を無効にするとき、動き情報導出に関するブロックレベルのシグナリングは必要ではない。
[0192]本開示の態様によれば、本明細書で説明される動き情報導出技法を有効または無効にすることは、複雑さとコーディング効率とのより良好なトレードオフ、および/またはエンコーダ/デコーダの柔軟性をもたらすように、高水準のシンタックスによって制御され得る。一例では、動き情報導出モードの使用を示すために、SPS、PPS、スライスヘッダ、または任意の他の高水準シンタックスヘッダにおいて、フラグがシグナリングされ得る。このコーディングモードが有効ではないことをこのフラグが示すとき、CU/PUレベルフラグはビットストリームにおいてコーディングされないことがある。
[0193]いくつかの事例では、加えて、または代わりに、動き情報導出の他のパラメータを示すために、高レベルのシンタックスが使用され得る。たとえば、PUレベルの動きベクトルを探すために使用されるべき探索アルゴリズムのインデックスは、SPS、PPS、またはスライスヘッダ内のビットストリームにおいてコーディングすることができる。いくつかの事例では、サブブロックレベルの動きベクトルを探すために使用されるインデックス探索アルゴリズムは、SPS、PPS、またはスライスヘッダ内のビットストリームにおいてコーディングされ得る。いくつかの例では、デコーダ側において計算の複雑さを低く保つために、PUレベルにおけるブロック/区分のマッチングの最大の数、サブPUレベルにおけるブロック/区分のマッチングの最大の数、および/または、PUレベルとサブPUレベルの両方における合計のマッチングの数が制約され得る。いくつかの事例では、そのような最大の数は、ビットストリームにおいて事前に定義されることがあり、またはシグナリングされることがある。
[0194]本開示の技法は、動き情報を導出するための様々な技法を含む。いくつかの例では、ビデオコーダは動きベクトルを含むエントリの初期リスト(開始候補リスト)を決定することができ、最良の開始点が初期リストからのエントリとして識別される。動きベクトルを含むエントリは、空間的なネイバーからの動きベクトル、時間的なネイバーからの動きベクトル、および/または他の手段によって導出された動きベクトルであり得る。代わりに、最良の開始点(または最良の開始点のインデックス)は、デコーダにシグナリングされ得る。
[0195]いくつかの例では、初期リストは、空間的なネイバーまたは時間的なネイバーからの動きベクトルを含み得る。初期リストの各エントリは、1つの動きベクトルとその参照インデックスとを含む、動き情報の単予測のセットであり得る。一例では、初期リストは、別のコーディングモードにおいて使用される動き予測候補リストと同じ方法で、たとえばマージ候補リストと同じ方法で生成され得る。この場合、各マージ候補の最大で2つの動きベクトルが、初期リスト中の最大で2つのエントリを生成するために使用され得る。いくつかの事例では、初期リスト中のエントリは、別のコーディングモードにおいて使用されるリストの中の動き予測候補のサブセット、たとえばマージ候補リストのサブセットから生成され得る。
[0196]別の例では、別のコーディングモードにおいて使用される動き予測候補リストの中の動きベクトルに加えて、たとえば、マージ候補リストの中の動きベクトルに加えて、追加の動きベクトルが初期リストに追加され得る。代わりに、または加えて、上のブロック、左のブロック、右上のブロック、または別のブロックなどの、現在のブロックの空間的なネイバーの動きベクトルが、初期リストに追加され得る。いくつかの事例では、異なる参照ピクチャインデックスを有するゼロ動きベクトルもリストに追加され得る。
[0197]代わりに、または加えて、現在のブロックの時間的にコロケートされたブロックの動きベクトル(たとえば、現在のブロックのTMVP)、および/または参照ピクチャの中の現在のブロックの時間的に右下のコロケートされたブロックの動きベクトルが、初期リストに追加され得る。特定の候補動きベクトルをリストに追加する前に、動きベクトルは時間的距離に基づいてスケーリングされることもされないこともある。
[0198]いくつかの態様では、動きベクトルは、参照ピクチャから補間および/または外挿されることがあり、初期リストに追加されることがある。たとえば、インターピクチャをコーディングする前に、ピクチャの補間および/または外挿された動きフィールドが、片側MEのような技法を用いてその参照ピクチャに基づいて生成され得る。ブロックの補間および/または外挿された動きフィールドは、MV予測のために使用されることがあり、または、動き情報導出モードのMV探索において追加の開始候補として使用されることがある。補間および/または外挿された動きフィールドは、4x4もしくは8x8の単位で、または任意の他の事前に定義された/シグナリングされるブロックレベルで確保され(saved)、PUは、複数の補間および/または外挿されたMVが使用され得るように複数のそのようなブロックを含み得ることに留意されたい。
[0199]一例では、両方の参照リストの中の各参照ピクチャの動きフィールドは、辿られた(traversed)各々のNxNブロックであり、Nは、4、8、もしくは16など事前に定義されることがあり、またはシグナリングされることがある。各ブロックに対して、ブロックに関連付けられる動きが現在のピクチャ中のNxNブロックを通過し、そのブロックがいずれの補間された動きも割り当てられていない場合、参照ブロックの動きは、TMVPにおけるMVのスケーリングと同じ方法で現在のピクチャにスケーリングされ、スケーリングされた動きは現在のフレーム中のブロックに割り当てられる。スケーリングされたMVがNxNブロックに割り当てられない場合、ブロックの動きは、補間された動きフィールドにおいて利用不可能であるものとしてマークされる。別の例では、現在のピクチャの中のNxNブロックは、補間された動きフィールドの中の複数の動きベクトルを割り当てられ得る。
[0200]いくつかの事例では、ビデオコーダは、候補リストから1つまたは複数の候補をプルーニングすることができる。プルーニングは、最良開始点選択プロセスの前に、たとえばリストの各候補のマッチングコストを計算する前に、初期リストから同一のエントリを除去するために適用され得る。
[0201]いくつかの事例では、各参照リストの中の最初のピクチャが参照ピクチャとして使用されることがあり、動きベクトル候補は必要であればそれに従ってスケーリングされる。そのような場合、初期リストの各エントリの参照インデックスは、TMVPの場合と同様に、たとえばPOC距離に基づいて動きベクトルがスケーリングされた後で、修正され得る。いくつかの事例では、各エントリの参照インデックスは1つまたは2つのピクチャに固定されることが可能であり、関連する動きベクトルはそのようなピクチャに向かってスケーリングされることが可能である。
[0202]一例では、両側マッチングのために、動きベクトルと、それぞれ参照リスト0およびリスト1への動きベクトルの関連する参照インデックスとの両方を含む、動き情報のフルセットである動きベクトルペアが、初期候補リストの各エントリに基づいて取得され得る。ビデオコーダは次いで、初期リストの中のすべてのエントリから生成されるすべてのMVペアに対する両側マッチングを実行し、最小のマッチングコストにつながる候補を選択することができる。
[0203]MVペアを生成するために、ビデオコーダは、初期リストのエントリを第1の動きベクトルとして選択し、第2の動きベクトルを生成することができる。たとえば、あるエントリが現在の第1の動きベクトルMVAを含み、それが参照ピクチャリストA(Aは0または1に等しい)の中の第1の参照ピクチャへの参照インデックス(POC値POCAを有する)と関連付けられると仮定する。現在のピクチャのPOC値がPOCCであると仮定すると、ビデオコーダは、それのPOC値POCBが(2×POCC−POCA)に等しくなるような、参照ピクチャリストB(Bは1−Aに等しい)からの第2の参照ピクチャを見つけるように構成され得る。参照ピクチャリストBの中の参照ピクチャが(2×POCC−POC0)に等しいPOC値を有しない場合、ビデオコーダは、POCBがPOCAに等しくなく、POCC−POCBの絶対値が最小であるように、リストBの中のすべての参照ピクチャを確認することによって、第2の参照ピクチャを選択することができる。要約すると、ビデオコーダは、同じPOC距離を有する(表示順序において)現在のピクチャの他の側に位置するピクチャを選択することができる。利用可能ではない場合、ビデオコーダは、現在のピクチャまでの最小の距離を有する他の側におけるピクチャを選択することができる。すべての参照ピクチャが、現在のピクチャと比較したときにPOCAを有する第1の参照と同じ時間的な側にある場合、ビデオコーダは、現在のピクチャに最も時間的に近くPOCA以外のPOCを有する参照を選択することができる。前述の仮定のもとで、ビデオコーダは、たとえばTMVPの場合のようにPOC差分に基づいて、第2の参照ピクチャと関連付けられる第2の動きベクトルを生成するために、第1の動きベクトルMVAをスケーリングすることができる。代わりに、両側MVの仮定に基づく任意の技法が、第2の参照ピクチャとその動きベクトルとを生成するために使用され得る。
[0204]いくつかの態様によれば、2つの開始動きベクトルは初期リストから選択され得る。これらの2つの動きベクトルの各々が、初期リストの2つのサブセット中のエントリから(最小マッチングコストの観点で)選択される。各サブサブセットは、参照ピクチャリスト0だけに対する参照インデックス、または参照ピクチャリスト1だけに対する参照インデックスと関連付けられる、動きベクトルを含む。
[0205]本開示の態様によれば、ビデオコーダは、動きベクトルと関連付けられるマッチングコストに基づいて、候補からある候補を選択するように構成され得る。加えて、候補リストから候補を選択した後で、ビデオコーダは、ブロックの動き情報を導出するために候補動きベクトルを改良することができる。たとえば、候補動きベクトルは、参照ピクチャの開始点を示すために使用されることがあり、それは次いで、マッチングコストに基づいてベストマッチを見つけるために探され得る。
[0206]本開示の態様によれば、たとえば、初期動きベクトル候補のベストマッチを決定するとき、および/または、初期動きベクトル候補を改良するとき、様々なマッチングコストが使用され得る。一例では、ブロックの動きを探索するとき、MVコストは、ノイズによる負の影響を避けるために、マッチングコストに含められ得る。たとえば、MVRと表記される動きベクトルの改良部分(たとえば、現在のMVと探索中心との間の差)が、コストを計算するために使用され得る。この例では、コストはw×(|MVR[0]|+|MVR[1]|)であることがあり、wは、シグナリングされ得る、または事前に定義され得る加重係数(weighting factor)であり、MVR[0]およびMVR[1]はMVRの2つの成分である。代わりに、改良された動きベクトルMVは、たとえばw×(|MV[0]|+|MV[1]|)としてコストを計算するために使用され得る。
[0207]いくつかの例では、ブロックが比較的小さいとき、たとえば4x4以下であるとき、ブロックをカバーするより大きいブロック(たとえば、拡張された境界を有するブロック)が、雑音を抑制するためにマッチングコスト計算において使用され得る。たとえば、4x4ブロックに対するベストマッチを探すとき、マッチングコストは、中心のブロックがその4x4ブロックである8x8ブロックに基づいて計算され得る。
[0208]いくつかの例では、マッチングコストは、絶対差分和(SAD:sum of absolute differences)、予測平方和(SSE:sum of squared errors of prediction)、または絶対変換差分和(SATD:sum of absolute transformed differences)などの、任意の種類の距離/コストであり得る。計算的な複雑さを下げるために、SAD、SSE、または他のコストが、水平方向、垂直方向、または両方の方向の分解能が下げられた状態で計算され得る。たとえば、8x8ブロックに対して、SADは奇数行のみに基づいて計算され得る。別の例では、マッチングコストは、ブロックの選択されたサブセットに基づいて計算されることがあり、たとえば、aの中心領域のみが使用されることがある。
[0209]本開示の態様によれば、ベストマッチ(たとえば、マッチングコストに基づく選択された候補)の改良プロセスは、より効率的でありながらより複雑ではない探索を実現するために、常に小さいウィンドウを使用する代わりに事前に定義されたまたはシグナリングされた探索ウィンドウ内で、たとえば2x2のウィンドウ(ここで単位はピクセルであり、分数動きベクトルがウィンドウ内で探し出され得る)内で、実行され得る。この例では、探索ウィンドウの範囲(たとえば、16x16のサイズを有する)は、ビットストリームにおいて事前に定義され、またはシグナリングされ得る。
[0210]完全探索、3段階探索、ダイヤモンド探索、たとえばLurng−Kuo Liu、Ephraim Feig、「A block−based gradient descent search algorithm for block motion estimation in video coding」、IEEE Trans. Circuits Syst. Video Technol.、vol. 6、pp.419−422、1996年8月に記述されているようなブロックベース勾配降下探索アルゴリズム(BBGDS:block-based gradient descent search algorithm)、または、たとえばJo Yew Tham、Surendra Ranganath, Maitreya Ranganath、およびAshraf Ali Kassim、「A novel unrestricted center−biased diamond search algorithm for block motion estimation」、IEEE Trans. Circuits Syst. Video Technol.、vol. 8、pp.369−377、1998年8月に記述されているような無制約の中心バイアスダイヤモンド探索アルゴリズム(UCBDS:unrestricted center-biased diamond search algorithm)などの、探索するための探索アルゴリズムが事前に定義され得る。
[0211]いくつかの事例では、異なる探索技法が、シグナリングまたは事前に定義された基準に基づいて、異なる事例において使用され得る。たとえば、PU全体を探索するために、ダイヤモンド探索が使用され得る。サブPUを探索するために、小さいダイヤモンド探索が使用され得る。加えて、または代わりに、たとえばマッチングコストが事前に定義された閾値または適応的な閾値より低いとき、探索の間に早期停止が適用され得る。テンプレートマッチングを使用するとき、改良後の2つの参照リストの2つの動きベクトルが同じ参照ピクチャ中の同じブロックを指し示さないものとするという制約が、さらに適用され得る。
[0212]上で述べられたように、本開示は、既存のDMVDプロセスのためのいくつかの最適化技法を説明する。たとえば、図10の例に関して上で説明されたように、本技法は、双方向予測から単方向予測へと両側マッチングを拡張することを含む。両側マッチングはまた、2つの参照ピクチャの時間的位置がともに、現在のスライスの時間的位置の前または後にある(すなわち、POC値が現在のピクチャのPOC値より小さい、または大きい)ときに適用され得る。そのような技法は、拡張両側マッチングと本明細書では総称的に呼ばれ得る。
[0213]本開示の他の態様は、補間技法に関する。たとえば、本開示の態様によれば、補間技法は、複雑さを下げるために簡略化され得る。図2に関して上で述べられたように、動き探索は通常、サブピクセル精度を使用して実行される。したがって、非整数のピクセル位置に対して、補間が必要とされる。計算的な複雑さを下げるために、本開示の態様によれば、ビデオコーダは、通常の動き補償補間と比較してより短いタップ(taps)を有する補間フィルタを使用することができる。一例では、ビデオコーダは、たとえば初期候補動きベクトルを適用するとき、またはそのような動きベクトルを改良するとき、動き探索の間にバイリニア(bilinear)補間フィルタを使用することができる。別の例では、ビデオコーダは、整数ピクセル位置を使用して動き探索を最初に実行し、続いて、開始点として整数ピクセル位置のベストマッチを有する分数ピクセル位置において動き探索を実行するように構成され得る。
[0214]本開示の他の技法は、サブブロックのための動き情報を導出することに関する。たとえば、本開示の態様によれば、ビデオコーダは、任意の動き導出技法に基づいて、ブロック/PUを(オーバーラップされていない)サブPU/サブブロックに分割することができる。PUが複数のより小さいサイズのサブPUへと分割されるとき、ビデオコーダは、各サブPUの動き情報の固有のセットを導出することができる。
[0215]説明を目的とする例では、32x32のPUは、16個の8x8のサブPUに分割され得る。この例では、ビデオコーダは、8x8のサブPUの各々の異なる参照インデックスおよび/または動きベクトルを決定することができる。他の例では、サブPUは他のサイズ、たとえば4x4、2x2、または1x1を有し得る。
[0216]いくつかの事例では、サブブロック/サブPUのサイズは、ブロック/PUのサイズとは無関係に、事前に定義され固定されていることがある。他の例では、PUが4分木に従って分割され得る回数を制御する、PUの分割深度(depth)Dが定義され得る。いくつかの例では、現在のブロック/PUがそれらへと分割されるべきサブブロック/サブPUの目標サイズを示すために、最小限のサブPU/サブブロックサイズが事前に定義され、またはシグナリングされ得る。目標サイズは最小限のサブPU/サブブロックサイズと、4分木構造に従って現在のブロックをD回分割することによって得られるサイズとのうちの、大きい方であり得る。
[0217]本開示の態様によれば、ビデオコーダは、PUのサブPUの動き情報を導出するとき、PUの導出された動き情報を利用することができる。たとえば、ビデオコーダは、各サブPUのために、全体のブロックの動き情報を探索中心(初期探索点)として設定することによって、それぞれの固有の動き情報を探索することができる。ビデオコーダは次いで、各サブPUの動きを改良することができる。代わりに、各サブPUの探索中心は、開始点候補のリストから導出され得る。
[0218]別の例では、動きベクトル候補リストは、本明細書で説明される技法のいずれかを使用して、サブPUのために生成され得る。ビデオコーダは次いで、探索中心(たとえば、PUから導出された初期探索点)を確認した後で、リスト中の各候補を確認することができる。本開示の態様によれば、サブPUは、通常のブロックに適用可能であるものとして本明細書で説明される技法のいずれかを使用して、改良され得る。他の例では、上で説明された方式でベストマッチに対する動きベクトル候補リストを確認した後で、改良は、サブPUに対して常に、または条件付きでスキップされ得る。1つの可能性のある条件は、候補リストを確認した後でもベストマッチがPUの動き情報によって示される候補(たとえば、初期探索点)のままであるかどうかということであり得る。そうである場合、ビデオコーダは改良をスキップすることができる。そうではない場合、ビデオコーダは改良を実行することができる。
[0219]いくつかの例では、動きベクトルのフィルタリングは、単独の(isolated)誤った動きベクトルを訂正するためにサブPUに対して実行され得る。たとえば、ビデオコーダは、現在のサブPUの動きベクトルおよび最大で4つの隣接サブPUの動きベクトルとともに、メジアンフィルタを使用することができる。本開示の態様によれば、変換を適用するとき、ビデオコーダは、変換がサブPUの境界にまたがり得るように、PU全体をブロック全体として見なすことができる。他の例では、ビデオコーダは、変換サイズがサブPUサイズより大きくならないように、変換を各サブPUに適用することができる。いくつかの事例では、テンプレートマッチングが使用されるとき、PU全体はまた、より小さいサブPUへとさらに分割され得る。空間的なネイバーがすべて現在のPUの中にあるサブPUについて(それらのサブPUのテンプレートは利用可能ではない)、ビデオコーダは、それらのサブPUの動きベクトルを、PU全体に対して導出された動きベクトルに設定することができる。
[0220]いくつかの例では、ビデオコーダは、特定のブロックが分割されるかどうかを示す別個のシンタックス要素をコーディングすることができる。別の例では、拡張両側マッチングモードを有するすべての2Nx2Nブロックがさらに小さい区分へと分割され、追加のフラグはシグナリングされない。サブブロックのサイズは、事前に定義されることがあり、またはシグナリングされることがある。代わりに、サブブロックのサイズは、現在のブロックのサイズに基づき得る。たとえば、サブブロックのサイズは、2つの値のうちのより大きい方の数として導出され得る。第1の値は、事前に定義された、またはシグナリングされる最小限のサブブロックサイズ(たとえば、4x4または8x8など)である。第2の値は、(S>>d)x(S>>d)などの、現在のブロックに対する相対的なサイズであり、ここでSxSは現在のブロックサイズであるが、dは、現在のブロックがサブブロックへと分割される際に用いる4分木の深度を示すための、事前に定義された値またはシグナリングされる値である。上の例では、PUという用語はブロックという用語と交換可能に使用され、サブPUという用語はサブブロックという用語と交換可能に使用されることを理解されたい。
[0221]上で述べられたように、本明細書で説明される技法は、独立に、または組合せで使用され得る。例として、ある動き情報導出モード(たとえば、拡張両側マッチングモード、テンプレートマッチングモード、または任意の他のモード)と関連付けられる動き情報導出プロセスは3つのステップを含み得るが、第3のステップは、スライスタイプ、時間的レベル、ブロックタイプ、ブロックサイズ、またはビットストリームにおいて定義されるシンタックスに基づいて、条件付きで実行され得る。
[0222]第1のステップにおいて、ビデオコーダは、現在のブロックの動き情報の単予測のセットの初期候補リストを編成する(formulate)ことができる。ビデオコーダは、たとえばマッチングコストに基づいて、最良の開始点を有する候補をリストから選択することができる。第2のステップにおいて、ビデオコーダは、現在のブロックの動き情報を導出するために、選択された候補を改良することができる。本明細書で説明されるように、この改良はマッチングコストにも基づき得る。ビデオコーダは次いで、任意選択で、本明細書で説明されるように現在のブロックをサブブロックへとさらに分割し、各サブブロックの各動きベクトルを改良することができる。最後に、ビデオコーダは、導出された動き情報を使用して、現在のブロックのために動き補償を適用することができる。分割が実行されている場合、ビデオコーダは、サブブロックごとに動き補償を適用することができる。
[0223]一例では、動き情報導出モードを使用してブロックを再構築するために以下の疑似コードが使用されることがあり、動き情報は両側マッチングまたはテンプレートマッチングのいずれかによって導出される。両側マッチングが使用されるとき、ブロックはさらにサブブロックへと分割される(ここでのMVは参照情報を含むことに留意されたい)。
FRUCにおいて(サイズWxHの)ブロックBを再構築する
初期リストを構築する
if Bが両側マッチングである

両側マッチングの測定結果との、開始点としての初期リストにおけるベストマッチ(たとえば、両側マッチング)を見つける
ブロックBの動きベクトルMVBを得るために、両側マッチングを用いて開始点に基づいてMVを改良する
for ブロックBの中の各サブブロック

MVBを開始点として採用し、各サブブロックのMVを改良する
導出されたMV情報を用いてサブブロックのための動き補償を行う


else//テンプレートマッチング

テンプレートマッチングの測定結果との、開始点としての初期リストにおけるベストマッチ(たとえば、テンプレートマッチング)を見つける
テンプレートマッチングを用いて開始点に基づいてMVを改良する
[0224]したがって、本開示の態様によれば、ビデオエンコーダ20またはビデオデコーダ30は、現在のブロック(現在符号化または復号されているブロック)の動き情報を決定するために、動き情報補間モードを決定することができる。動き情報補間モード(たとえば、両側マッチング、テンプレートマッチング、または別の技法)を使用して、ビデオエンコーダ20またはビデオデコーダ30は、動きベクトル候補のリストの中の最良の動きベクトル候補、たとえば、現在のブロックとよく一致する参照ブロックを識別する動きベクトルを決定することができる。ビデオエンコーダ20またはビデオデコーダ30は、参照ピクチャ中の探索ウィンドウを識別するために、動きベクトル候補を使用することができる。
[0225]ビデオエンコーダ20またはビデオデコーダ30は、現在のブロックとよく一致する探索ウィンドウ中の参照ブロックに基づいて、動きベクトル候補を改良することができる。すなわち、ビデオエンコーダ20またはビデオデコーダ30は、現在のブロックとよく一致する探索ウィンドウ中の参照ブロックと、現在のブロックとの間の動きに基づいて、現在のブロックの新しい補間された動きベクトルを決定することができる。ビデオエンコーダ20またはビデオデコーダ30は次いで、補間された動きベクトルを使用して、現在のブロックのための動き補償を実行することができる。
[0226]いくつかの事例では、ビデオエンコーダ20またはビデオデコーダ30は、予測の目的で2つ以上のサブブロックへと現在のブロックを分割することができる。その上、他の例では、ビデオエンコーダ20またはビデオデコーダ30は、動き情報を補間するために、より多数の、より少数の、または異なる技法の構成を実行することができる。
[0227]したがって、現在のピクチャがFRUCにおいて参照ピクチャによって補間されるものと見なされ得るのと同様の方法で現在のピクチャの現在のブロックが参照ピクチャによって予測されるものと見なされ得るという仮定のもとで、本開示のいくつかの技法は、FRUCからのいくつかの概念を利用するブロックレベルコーディングツールとして一般化され得る。一例では、動きベースのプロセスのみがブロックレベルコーディングツールのために使用される。別の例では、ピクセルベースのプロセスのみがブロックレベルコーディングツールのために使用される。別の例では、動きベースのプロセスまたはピクセルベースのプロセスのいずれかが、所与のブロックのために使用される。別の例では、ピクセルベースのプロセスと動きベースのプロセスの両方がブロックレベルコーディングツールのために使用される。別の例では、他のシンタックスは、他の時間的フレームから再使用または予測されることがあり、コーディングツリーの情報、SAO、ALF、RQT情報などの、コーディングツールのために使用されることがある。
[0228]図12は、ビデオデータのブロックをコーディングするための動き情報導出モードを決定するための例示的なプロセスを示すフローチャートである。図12の例示的なプロセスは、ビデオコーダに関して説明され、ビデオコーダは、ビデオエンコーダ20、ビデオデコーダ30、または別のプロセッサとして構成され得る。
[0229]図12の例では、ビデオコーダは、複数の動き導出モードからある動き導出モードを選択することができる(200)。一般に、動き導出モードの各々は、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを含み得る。たとえば、テンプレートマッチングに関して、ビデオコーダは、参照ピクチャの中のテンプレート(たとえば、参照データの第2のセット)に対応する現在のピクチャの中のテンプレート(たとえば、参照データの第1のセット)を識別するために、動き探索を実行することができる。別の例では、両側モーショニング(motioning)に関して、ビデオコーダは、第2の参照ピクチャの中の第2の参照ブロック(たとえば、参照データの第2のセット)に対応する第1の参照ピクチャの中の参照ブロック(たとえば、参照データの第1のセット)を識別するために、動き探索を実行することができる。例示的な動き導出モードは、片側動き推定モード、両側マッチングモード、テンプレートマッチングモード、またはミラーベースモードを含み得る。
[0230]いくつかの態様によれば、ビデオコーダは、ビットストリームに含まれる1つまたは複数のシンタックス要素に従って、動き情報導出モードを選択することができる。たとえば、ビデオデコーダは、ビットストリームから1つまたは複数のシンタックス要素をパースおよび復号して、シンタックスに基づいて動き情報導出モードを決定することができる。ビデオエンコーダは、複数の動き情報導出モードをテストし、最良のRDコストを有するモードを選択し、選択されたモードを示す1つまたは複数のシンタックス要素をビットストリームにおいて符号化することができる。
[0231]ビデオコーダは、選択された動き導出モードを使用してブロックの動き情報を決定することができ、これは、選択されたモードを使用して初期動き情報を決定すること(202)と、初期動き情報を改良するために最適化プロセスを使用すること(204)とを含み得る。たとえば、ビデオコーダは、初期動き情報を決定するための候補を用いて、動きベクトル候補リストを構築することができる。本明細書で説明されるように、初期動き情報は、動き情報を改良するための開始点を提供することができる。
[0232]ビデオコーダは次いで、動き情報を表すシンタックスをコーディングすることなく、決定された動き情報を使用してブロックをコーディングすることができる(206)。たとえば、ビデオコーダがビデオデコーダを備える事例では、ビデオデコーダは、決定された動き情報に基づいて参照ピクチャ中の参照ブロックを決定し、符号化されたビットストリームから残差データを復号し、現在のブロックを再構築するために復号された残差と決定された参照ブロックとを合成する(combine)ことができる。ビデオコーダがビデオエンコーダを備える事例では、ビデオエンコーダは、残差データの参照インデックスまたは動きベクトルをコーディングすることなく、符号化されたビットストリームの中の現在のブロックの残差データを符号化することができる。
[0233]図13は、ビデオデータのブロックをコーディングするための動きベクトルを導出するための例示的なプロセスを示すフローチャートである。図13の例示的なプロセスは、ビデオコーダに関して説明され、ビデオコーダは、ビデオエンコーダ20、ビデオデコーダ30、または別のプロセッサとして構成され得る。
[0234]ビデオコーダは、候補動きベクトルリストを生成することができる(210)。候補動きベクトルリストは、現在のブロックの動き情報を導出するために使用され得る、1つまたは複数の動きベクトル候補を含み得る。いくつかの例では、動きベクトル候補は、空間的に隣接するブロックから、時間的ブロックから、または他のロケーションから決定され得る。
[0235]ビデオコーダは、動き情報を導出するためのリストから候補を決定することができる(212)。いくつかの例では、ビデオコーダは、特定の動き導出モードを使用して候補を決定するために、1つまたは複数のコスト計算を実行することができる。たとえば、ビデオコーダは、参照データの第1のセットおよび参照データの第2のセットのマッチングコストを決定することができ、これは、本明細書で説明されるように、それぞれの動きベクトルと関連付けられるコストを含み得る。
[0236]ビデオコーダは次いで、決定された候補に基づいて、導出される動きベクトルを決定することができる(214)。たとえば、ビデオコーダは、動き導出モードを使用して導出される動きベクトルを決定するために、決定された候補を改良することができる。ビデオコーダは次いで、導出された動きベクトルを使用してブロックをコーディングすることができる(216)。たとえば、ビデオコーダがビデオデコーダを備える事例では、ビデオデコーダは、導出された動きベクトルに基づいて参照ピクチャ中の参照ブロックを決定し、符号化されたビットストリームから残差データを復号し、現在のブロックを再構築するために復号された残差と決定された参照ブロックとを合成することができる。ビデオコーダがビデオエンコーダを備える事例では、ビデオエンコーダは、導出された動きベクトルをコーディングすることなく、符号化されたビットストリームの中の現在のブロックの残差データを符号化することができる。
[0237]図14は、ビデオデータのブロックのサブブロックの動き情報を導出するための例示的なプロセスを示すフローチャートである。図14の例示的なプロセスは、ビデオコーダに関して説明され、ビデオコーダは、ビデオエンコーダ20、ビデオデコーダ30、または別のプロセッサとして構成され得る。
[0238]ビデオコーダは、現在のブロックの動き情報を導出することができる(220)。いくつかの例では、ビデオコーダは、動き情報を導出するために、本明細書で説明された動き情報導出技法の任意の組合せを使用することができる。たとえば、ビデオコーダは、現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行するために、本明細書で説明された技法のいずれかを使用することができる(たとえば、テンプレートマッチング、両側マッチングなど)。
[0239]本開示の態様によれば、ビデオコーダはまた、ブロックを複数のサブブロックに分割することができる(222)。ビデオコーダは、それぞれのサブブロックの動き情報を別々に導出することができ、これは、各々のそれぞれのサブブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備える(224)。やはり、ビデオコーダは、たとえば、テンプレートマッチング、両側マッチングなどの動き情報を導出するために、本明細書で説明される任意の技法を使用することができる。たとえば、ビデオコーダは、サブブロックの各々の動き情報を導出するための開始点として、導出された動きベクトルを使用することができ、本明細書で説明された動き情報導出技法の任意の組合せを使用して、導出された動き情報をさらに改良することができる。
[0240]ビデオコーダは次いで、動き情報を表すシンタックス要素をコーディングすることなく、導出された動き情報に基づいてサブブロックの各々をコーディングすることができる(226)。たとえば、ビデオコーダがビデオデコーダを備える事例では、ビデオデコーダは、決定された動き情報に基づいて各サブブロックの参照ピクチャ中の参照ブロックを決定し、符号化されたビットストリームから各サブブロックの残差データを復号し、各サブブロックを再構築するために復号された残差と決定された参照ブロックとを合成することができる。ビデオコーダがビデオエンコーダを備える事例では、ビデオエンコーダは、残差データの参照インデックスまたは動きベクトルをコーディングすることなく、符号化されたビットストリームの中の各サブブロックの残差データを符号化することができる。
[0241]例に応じて、本明細書で説明された技法のうちのいずれかのいくつかのアクト(acts)またはイベントが、異なるシーケンスで実行されることがあり、追加され、マージされ、または完全に除外され得る(たとえば、すべての説明されたアクトまたはイベントが本技法の実施のために必要であるとは限らない)ことを認識されたい。その上、いくつかの例では、アクトまたはイベントは、連続的にではなく、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通じて同時に実行され得る。
[0242]1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベース処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応する、コンピュータ可読記憶媒体を含み得るか、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は、一般に、(1)非一時的である有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明される技法の実施のための命令、コードおよび/またはデータ構造を取り出すために、1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0243]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、フラッシュメモリ、または、命令もしくはデータ構造の形態の所望のプログラムコードを記憶するために使用されコンピュータによってアクセスされ得る任意の他の媒体を備え得る。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびBlu−rayディスク(disc)を含み、ここで、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲に含まれるべきである。
[0244]命令は、1つまたは複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の同等の集積された論理回路もしくは個別の論理回路などの、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用される「プロセッサ」という用語は、上記の構造、または本明細書で説明された技法の実装に好適な任意の他の構造のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成された専用ハードウェアおよび/またはソフトウェアモジュール内で与えられるか、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素で十分に実装され得る。
[0245]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示される技法を実行するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットが説明されたが、それらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上で説明されたように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上で説明された1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられ得るか、または相互動作可能なハードウェアユニットの集合によって与えられ得る。
[0246]様々な例が説明された。これらおよび他の例は以下の特許請求の範囲内にある。

Claims (41)

  1. ビデオデータを処理する方法であって、
    ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定することと、ここにおいて、前記動き情報が参照ビデオデータに対する前記現在のブロックの動きを示す、
    前記決定された候補動きベクトルに基づいて、前記現在のブロックの導出される動きベクトルを決定することと、ここにおいて、前記導出される動きベクトルを決定することが、前記現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備える、
    を備える、方法。
  2. 前記候補動きベクトルを決定することが、複数のエントリを備える候補リストから前記候補動きベクトルを選択することを備える、請求項1に記載の方法。
  3. 前記候補リストを生成することをさらに備え、ここにおいて、前記候補リストの各エントリが、動きベクトルと、前記動きベクトルの関連する参照インデックスとを備える、請求項2に記載の方法。
  4. 前記候補リストを生成することが、前記現在のブロックの空間的なネイバーから1つまたは複数の動きベクトルを識別すること、前記現在のブロックの時間的なネイバーから1つまたは複数の動きベクトルを識別すること、または動きベクトル導出技法を使用して動きベクトルを導出することを備える、請求項3に記載の方法。
  5. 前記候補リストを生成することが、前記候補リストとマージモード動きベクトル候補リストとを同じ方式で生成することを備える、請求項3に記載の方法。
  6. 前記候補リストを生成することが、前記現在のブロックを含む前記ピクチャの動きフィールドを外挿または補間することと、前記外挿または補間された動きフィールドから1つまたは複数の候補動きベクトルを決定することとを備える、請求項3に記載の方法。
  7. 前記候補リストを生成することが、前記候補リストから複製の候補動きベクトルをプルーニングすることを備える、請求項3に記載の方法。
  8. 前記現在のブロックの参照ピクチャリストの固定された参照ピクチャを使用して前記動きベクトル候補をスケーリングすることをさらに備え、ここにおいて、前記固定された参照ピクチャが、前記現在のブロックの前記参照ピクチャリスト中の初期ピクチャである、請求項3に記載の方法。
  9. 前記候補動きベクトルを選択することが、参照データの前記第1のセットと参照データの前記第2のセットとの間のベストマッチを示す前記候補動きベクトルを選択することを備える、請求項2に記載の方法。
  10. 前記候補動きベクトルを選択することが、前記候補動きベクトルと関連付けられる動きベクトルコストに基づいて前記候補動きベクトルを選択することを備え、ここにおいて、前記動きベクトルコストが、前記候補動きベクトルと、前記導出された動きベクトルを決定するために探索されている参照ピクチャの探索エリアの中心との間の差分を備える、請求項2に記載の方法。
  11. 前記候補リストから各候補動きベクトルのための動きベクトルペアを取得することと、
    それぞれの動きベクトルペアのために両側マッチングプロセスを実行することと、
    をさらに備え、
    前記1つまたは複数の候補動きベクトルを選択することが、前記両側マッチングプロセスから1つまたは複数の動きベクトルを選択することを備える、請求項2に記載の方法。
  12. 各候補動きベクトルのための前記動きベクトルペアを取得することが、前記それぞれの候補動きベクトルから前記ペアの第1の動きベクトルを決定することと、前記現在のブロックの参照ピクチャリストの参照ピクチャに基づいて、前記ペアの第2の動きベクトルを決定することと、を備える、請求項11に記載の方法。
  13. 前記決定された候補動きベクトルを改良することが、
    前記候補動きベクトルに基づいて、参照ピクチャ中の探索ウィンドウを決定することと、
    前記決定された探索ウィンドウ内の前記動き情報導出プロセスを使用して、ベストマッチ参照データを探すことと、
    前記ベストマッチ参照データに基づいて、前記現在のブロックの前記導出された動きベクトルを決定することと、
    を備える、請求項1に記載の方法。
  14. 前記ベストマッチを探すことが、完全探索、3段階探索、ダイヤモンド探索、ブロックベース勾配降下探索、または無制約の中心バイアスダイヤモンド探索のうちの1つまたは複数を実行することを備える、請求項13に記載の方法。
  15. ベストマッチ参照データを探すことが、前記ベストマッチ参照データと関連付けられる動きベクトルの動きベクトルコストを決定することを備える、請求項13に記載の方法。
  16. 前記導出された動きベクトルを使用してビデオデータの前記現在のブロックを復号することをさらに備え、ここにおいて、前記現在のブロックを復号することが、
    前記導出された動きベクトルに基づいて参照ピクチャの中の参照ブロックを決定することと、
    符号化されたビットストリームから残差データを復号することと、
    前記現在のブロックを再構築するために、前記復号された残差と前記決定された参照ブロックとを合成することと、
    を備える、請求項1に記載の方法。
  17. 前記現在のブロックを符号化することをさらに備え、ここにおいて、前記現在のブロックを符号化することが、符号化されたビットストリームの中の前記現在のブロックの残差データを符号化することを備え、前記符号化されたビットストリームが、前記導出された動きベクトルを示すデータを含まない、請求項1に記載の方法。
  18. ビデオデータの前記現在のブロックの動き情報を導出するための候補動きベクトルの初期リストを生成することをさらに備え、
    前記候補動きベクトルを決定することが、前記候補動きベクトルと関連付けられるマッチングコストに基づいて、前記初期リストから前記候補動きベクトルを選択することを備え、
    前記候補動きベクトルを改良することが、前記候補動きベクトルによって示される探索ウィンドウ内で前記動き情報導出プロセスを使用してベストマッチ参照データを探すことを備え、
    前記現在のブロックの前記導出された動きベクトルを決定することが、前記ベストマッチ参照データに基づいて前記導出された動きベクトルを決定することを備える、請求項1に記載の方法。
  19. ビデオデータを処理するためのデバイスであって、
    ビデオデータの現在のブロックを記憶するように構成されるメモリと、
    1つまたは複数のプロセッサと、
    を備え、前記1つまたは複数のプロセッサが、
    ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定することと、ここにおいて、前記動き情報が参照ビデオデータに対する前記現在のブロックの動きを示す、
    前記決定された候補動きベクトルに基づいて、前記現在のブロックの導出される動きベクトルを決定することと、ここにおいて、前記導出される動きベクトルを決定することが、前記現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行することを備える、
    を行うように構成される、デバイス。
  20. 前記候補動きベクトルを決定するために、前記1つまたは複数のプロセッサが、複数のエントリを備える候補リストから前記候補動きベクトルを選択するように構成される、請求項19に記載のデバイス。
  21. 前記1つまたは複数のプロセッサがさらに前記候補リストを生成するように構成され、ここにおいて、前記候補リストの各エントリが、動きベクトルと、前記動きベクトルの関連する参照インデックスとを備える、請求項20に記載のデバイス。
  22. 前記候補リストを生成するために、前記1つまたは複数のプロセッサが、前記現在のブロックの空間的なネイバーから1つまたは複数の動きベクトルを識別すること、前記現在のブロックの時間的なネイバーから1つまたは複数の動きベクトルを識別すること、または動きベクトル導出技法を使用して動きベクトルを導出すること、を行うように構成される、請求項21に記載のデバイス。
  23. 前記候補リストを生成するために、前記1つまたは複数のプロセッサが、前記候補リストとマージモード動きベクトル候補リストとを同じ方式で生成するように構成される、請求項21に記載のデバイス。
  24. 前記候補リストを生成するために、前記1つまたは複数のプロセッサが、前記現在のブロックを含む前記ピクチャの動きフィールドを外挿または補間することと、前記外挿または補間された動きフィールドから1つまたは複数の候補動きベクトルを決定することと、を行うように構成される、請求項21に記載のデバイス。
  25. 前記候補リストを生成するために、前記1つまたは複数のプロセッサが、前記候補リストから複製の候補動きベクトルをプルーニングするように構成される、請求項21に記載のデバイス。
  26. 前記1つまたは複数のプロセッサがさらに、前記現在のブロックの参照ピクチャリストの固定された参照ピクチャを使用して前記動きベクトル候補をスケーリングするように構成され、ここにおいて、前記固定された参照ピクチャが、前記現在のブロックの前記参照ピクチャリスト中の初期ピクチャである、請求項21に記載のデバイス。
  27. 前記候補動きベクトルを選択するために、前記1つまたは複数のプロセッサが、参照データの前記第1のセットと参照データの前記第2のセットとの間のベストマッチを示す前記候補動きベクトルを選択するように構成される、請求項20に記載のデバイス。
  28. 前記候補動きベクトルを選択するために、前記1つまたは複数のプロセッサが、前記候補動きベクトルと関連付けられる動きベクトルコストに基づいて前記候補動きベクトルを選択するように構成され、ここにおいて、前記動きベクトルコストが、前記候補動きベクトルと、前記導出された動きベクトルを決定するために探索されている参照ピクチャの探索エリアの中心との間の差分を備える、請求項20に記載のデバイス。
  29. 前記1つまたは複数のプロセッサがさらに、
    前記候補リストから各候補動きベクトルのための動きベクトルペアを取得することと、
    それぞれの動きベクトルペアのために両側マッチングプロセスを実行することと、
    を行うように構成され、
    前記1つまたは複数の候補動きベクトルを選択するために、前記1つまたは複数のプロセッサが、前記両側マッチングプロセスから1つまたは複数の動きベクトルを選択するように構成される、請求項20に記載のデバイス。
  30. 各候補動きベクトルのための前記動きベクトルペアを取得するために、前記1つまたは複数のプロセッサが、前記それぞれの候補動きベクトルから前記ペアの第1の動きベクトルを決定することと、前記現在のブロックの参照ピクチャリストの参照ピクチャに基づいて、前記ペアの第2の動きベクトルを決定することと、を行うように構成される、請求項29に記載のデバイス。
  31. 前記決定された候補動きベクトルを改良するために、前記1つまたは複数のプロセッサが、
    前記候補動きベクトルに基づいて、参照ピクチャ中の探索ウィンドウを決定することと、
    前記決定された探索ウィンドウ内の前記動き情報導出プロセスを使用して、ベストマッチ参照データを探すことと、
    前記ベストマッチ参照データに基づいて、前記現在のブロックの前記導出された動きベクトルを決定することと、
    を行うように構成される、請求項19に記載のデバイス。
  32. 前記ベストマッチを探すために、前記1つまたは複数のプロセッサが、完全探索、3段階探索、ダイヤモンド探索、ブロックベース勾配降下探索、または無制約の中心バイアスダイヤモンド探索のうちの1つまたは複数を実行するように構成される、請求項31に記載のデバイス。
  33. ベストマッチ参照データを探すために、前記1つまたは複数のプロセッサが、前記ベストマッチ参照データと関連付けられる動きベクトルの動きベクトルコストを決定するように構成される、請求項31に記載のデバイス。
  34. 前記1つまたは複数のプロセッサがさらに、前記導出された動きベクトルを使用してビデオデータの前記現在のブロックを復号するように構成され、ここにおいて、前記現在のブロックを復号するために、前記1つまたは複数のプロセッサが、
    前記導出された動きベクトルに基づいて参照ピクチャの中の参照ブロックを決定することと、
    符号化されたビットストリームから残差データを復号することと、
    前記現在のブロックを再構築するために、前記復号された残差と前記決定された参照ブロックとを合成することと、
    を行うように構成される、請求項19に記載のデバイス。
  35. 前記復号されたブロックを表示するように構成されるディスプレイをさらに備える、請求項34に記載のデバイス。
  36. 前記1つまたは複数のプロセッサがさらに前記現在のブロックを符号化するように構成され、ここにおいて、前記現在のブロックを符号化するために、前記1つまたは複数のプロセッサが、符号化されたビットストリームの中の前記現在のブロックの残差データを符号化するように構成され、前記符号化されたビットストリームが、前記導出された動きベクトルを示すデータを含まない、請求項19に記載のデバイス。
  37. ビデオデータの前記ブロックを含むピクチャをキャプチャするように構成されるカメラをさらに備える、請求項36に記載のデバイス。
  38. 集積回路、
    マイクロプロセッサ、または
    ワイヤレス通信デバイスのうちの少なくとも1つを備える、請求項19に記載のデバイス。
  39. 前記1つまたは複数のプロセッサがさらに、
    ビデオデータの前記現在のブロックの動き情報を導出するための候補動きベクトルの初期リストを生成するように構成され、
    前記候補動きベクトルを決定するために、前記1つまたは複数のプロセッサが、前記候補動きベクトルと関連付けられるマッチングコストに基づいて、前記初期リストから前記候補動きベクトルを選択するように構成され、
    前記候補動きベクトルを改良するために、前記1つまたは複数のプロセッサが、前記候補動きベクトルによって示される探索ウィンドウ内で前記動き情報導出プロセスを使用してベストマッチ参照データを探すように構成され、
    前記現在のブロックの前記導出された動きベクトルを決定するために、前記1つまたは複数のプロセッサが、前記ベストマッチ参照データに基づいて前記導出された動きベクトルを決定するように構成される、請求項19に記載のデバイス。
  40. ビデオデータを処理するための装置であって、
    ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定するための手段と、ここにおいて、前記動き情報が参照ビデオデータに対する前記現在のブロックの動きを示す、
    前記決定された候補動きベクトルに基づいて、前記現在のブロックの導出される動きベクトルを決定するための手段と、ここにおいて、前記導出される動きベクトルを決定するための前記手段が、前記現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行するための手段を備える、
    を備える、装置。
  41. 実行されると、1つまたは複数のプロセッサに、
    ビデオデータの現在のブロックの動き情報を導出するための候補動きベクトルを決定することと、ここにおいて、前記動き情報が参照ビデオデータに対する前記現在のブロックの動きを示す、
    前記決定された候補動きベクトルに基づいて、前記現在のブロックの導出される動きベクトルを決定することと、
    を行わせる命令を記憶している、非一時的コンピュータ可読媒体であって、
    前記導出される動きベクトルを決定するために、前記命令が、前記1つまたは複数のプロセッサに、前記現在のブロックの外側の参照データの第2のセットに対応する参照データの第1のセットに対する動き探索を実行させる、非一時的コンピュータ可読媒体。
JP2017550188A 2015-03-27 2016-03-25 ビデオコーディングにおける動きベクトル導出 Active JP6740243B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562139572P 2015-03-27 2015-03-27
US62/139,572 2015-03-27
US201562182367P 2015-06-19 2015-06-19
US62/182,367 2015-06-19
US15/080,478 US10200711B2 (en) 2015-03-27 2016-03-24 Motion vector derivation in video coding
US15/080,478 2016-03-24
PCT/US2016/024332 WO2016160608A1 (en) 2015-03-27 2016-03-25 Motion vector derivation in video coding

Publications (3)

Publication Number Publication Date
JP2018513611A true JP2018513611A (ja) 2018-05-24
JP2018513611A5 JP2018513611A5 (ja) 2019-04-11
JP6740243B2 JP6740243B2 (ja) 2020-08-12

Family

ID=56974464

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017550189A Ceased JP2018513612A (ja) 2015-03-27 2016-03-25 ビデオコーディングにおける動き情報導出モードの決定
JP2017550177A Active JP6783788B2 (ja) 2015-03-27 2016-03-25 ビデオコーディングにおけるサブブロックの動き情報の導出
JP2017550188A Active JP6740243B2 (ja) 2015-03-27 2016-03-25 ビデオコーディングにおける動きベクトル導出

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017550189A Ceased JP2018513612A (ja) 2015-03-27 2016-03-25 ビデオコーディングにおける動き情報導出モードの決定
JP2017550177A Active JP6783788B2 (ja) 2015-03-27 2016-03-25 ビデオコーディングにおけるサブブロックの動き情報の導出

Country Status (27)

Country Link
US (3) US10200711B2 (ja)
EP (3) EP3275188B1 (ja)
JP (3) JP2018513612A (ja)
KR (3) KR102519778B1 (ja)
CN (3) CN107409225B (ja)
AU (5) AU2016243520A1 (ja)
BR (3) BR112017020632A2 (ja)
CA (3) CA2976818A1 (ja)
CL (3) CL2017002383A1 (ja)
CO (3) CO2017009672A2 (ja)
DK (2) DK3275186T3 (ja)
ES (2) ES2900029T3 (ja)
HK (1) HK1243259A1 (ja)
HU (2) HUE057250T2 (ja)
IL (1) IL253849B (ja)
MX (3) MX2017012059A (ja)
MY (3) MY187812A (ja)
NZ (2) NZ734552A (ja)
PH (3) PH12017501440A1 (ja)
PL (2) PL3275186T3 (ja)
PT (2) PT3275186T (ja)
RU (3) RU2719296C2 (ja)
SA (3) SA517382337B1 (ja)
SG (3) SG11201706537WA (ja)
SI (2) SI3275188T1 (ja)
TW (3) TW201639370A (ja)
WO (3) WO2016160608A1 (ja)

Families Citing this family (212)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
US10200711B2 (en) 2015-03-27 2019-02-05 Qualcomm Incorporated Motion vector derivation in video coding
US10375413B2 (en) 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
WO2017142449A1 (en) * 2016-02-17 2017-08-24 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices for encoding and decoding video pictures
CN114466193A (zh) * 2016-03-16 2022-05-10 联发科技股份有限公司 视频编码的样式基础的运动向量推导之方法及装置
KR102584349B1 (ko) * 2016-03-28 2023-10-04 로즈데일 다이나믹스 엘엘씨 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10939099B2 (en) * 2016-04-22 2021-03-02 Lg Electronics Inc. Inter prediction mode-based image processing method and device therefor
US10593015B2 (en) * 2016-05-04 2020-03-17 Texas Instruments Incorporated Apparatus and method for efficient motion estimation
CN109565592B (zh) * 2016-06-24 2020-11-17 华为技术有限公司 一种使用基于分割的视频编码块划分的视频编码设备和方法
CN116708783A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
CN116567216A (zh) * 2016-08-11 2023-08-08 Lx 半导体科技有限公司 图像编码/解码方法以及图像数据的发送方法
US10368087B2 (en) * 2016-09-20 2019-07-30 Ati Technologies Ulc Dynamic reload of video encoder motion estimation search window under performance/power constraints
US10631002B2 (en) * 2016-09-30 2020-04-21 Qualcomm Incorporated Frame rate up-conversion coding mode
BR112019005678B1 (pt) * 2016-09-30 2023-12-12 Huawei Technologies Co., Ltd Método e aparelho para codificação e decodificação de imagem através de interpredição
US10616582B2 (en) 2016-09-30 2020-04-07 Qualcomm Incorporated Memory and bandwidth reduction of stored data in image/video coding
JP6968228B2 (ja) * 2016-09-30 2021-11-17 華為技術有限公司Huawei Technologies Co., Ltd. インター予測を介する画像符号化および復号のための方法および装置
CN109496431A (zh) * 2016-10-13 2019-03-19 富士通株式会社 图像编码/解码方法、装置以及图像处理设备
CN106780363B (zh) * 2016-11-21 2019-07-23 北京金山安全软件有限公司 一种图片处理方法、装置及电子设备
US11343530B2 (en) * 2016-11-28 2022-05-24 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium having bitstream stored thereon
CN109983773A (zh) * 2016-11-29 2019-07-05 联发科技股份有限公司 用于合并模式推导的视频编解码方法和装置
KR102572286B1 (ko) 2016-12-05 2023-08-29 엘지전자 주식회사 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2018110180A1 (ja) * 2016-12-15 2018-06-21 シャープ株式会社 動きベクトル生成装置、予測画像生成装置、動画像復号装置、および動画像符号化装置
US10911761B2 (en) * 2016-12-27 2021-02-02 Mediatek Inc. Method and apparatus of bilateral template MV refinement for video coding
US10291928B2 (en) * 2017-01-10 2019-05-14 Blackberry Limited Methods and devices for inter-prediction using motion vectors for video coding
CN116866552A (zh) * 2017-01-16 2023-10-10 世宗大学校产学协力团 影像信号解码/编码方法以及传送比特流的方法
WO2018163857A1 (ja) * 2017-03-10 2018-09-13 ソニー株式会社 画像処理装置および方法
CN110447227A (zh) * 2017-03-10 2019-11-12 索尼公司 图像处理装置和方法
WO2018172609A2 (en) * 2017-03-21 2018-09-27 Nokia Technologies Oy Motion compensation in video encoding and decoding
WO2018173895A1 (ja) * 2017-03-21 2018-09-27 シャープ株式会社 予測画像生成装置、動画像復号装置、および動画像符号化装置
WO2018174618A1 (ko) * 2017-03-22 2018-09-27 한국전자통신연구원 참조 블록을 사용하는 예측 방법 및 장치
US10491917B2 (en) * 2017-03-22 2019-11-26 Qualcomm Incorporated Decoder-side motion vector derivation
US10595035B2 (en) * 2017-03-22 2020-03-17 Qualcomm Incorporated Constraining motion vector information derived by decoder-side motion vector derivation
TWI782974B (zh) 2017-04-13 2022-11-11 美商松下電器(美國)知識產權公司 解碼裝置、解碼方法及非暫時性電腦可讀取媒體
EP3611925A4 (en) * 2017-04-13 2020-03-25 Panasonic Intellectual Property Corporation of America ENCODING DEVICE, DECODING DEVICE, ENCODING METHOD, AND DECODING METHOD
WO2018193968A1 (ja) 2017-04-19 2018-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2018193967A1 (ja) * 2017-04-19 2018-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN117014629A (zh) * 2017-04-27 2023-11-07 松下电器(美国)知识产权公司 解码方法、编码方法以及发送方法
US10805630B2 (en) 2017-04-28 2020-10-13 Qualcomm Incorporated Gradient based matching for motion search and derivation
US10735761B2 (en) * 2017-05-19 2020-08-04 Mediatek Inc Method and apparatus of video coding
EP4351139A2 (en) * 2017-06-09 2024-04-10 Electronics and Telecommunications Research Institute Video encoding/decoding method and device, and recording medium storing bit stream
CN109089119B (zh) * 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
US20200014945A1 (en) * 2018-07-08 2020-01-09 Mellanox Technologies, Ltd. Application acceleration
US20200014918A1 (en) * 2018-07-08 2020-01-09 Mellanox Technologies, Ltd. Application accelerator
US11252464B2 (en) 2017-06-14 2022-02-15 Mellanox Technologies, Ltd. Regrouping of video data in host memory
US20190007699A1 (en) * 2017-06-28 2019-01-03 Futurewei Technologies, Inc. Decoder Side Motion Vector Derivation in Video Coding
EP3632108B1 (en) 2017-06-30 2023-08-02 Huawei Technologies Co., Ltd. Search region for motion vector refinement
IL271784B2 (en) * 2017-06-30 2023-10-01 Huawei Tech Co Ltd Error tolerance and parallel processing for motion vector derivation on the decoder side
WO2019001741A1 (en) * 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION
GB2563936A (en) * 2017-06-30 2019-01-02 Canon Kk Method and apparatus for encoding or decoding a flag during video data encoding
WO2019009567A1 (ko) * 2017-07-03 2019-01-10 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
KR20200014913A (ko) * 2017-07-04 2020-02-11 엘지전자 주식회사 인터 예측 기반의 영상 처리 방법 및 이를 위한 장치
GB2564133B (en) * 2017-07-04 2021-03-17 Canon Kk Method and apparatus for encoding or decoding video data with sub-pixel motion vector refinement
GB2588563B (en) * 2017-07-04 2021-10-20 Canon Kk Method and apparatus for encoding or decoding video data with sub-pixel motion vector refinement
WO2019010634A1 (zh) * 2017-07-11 2019-01-17 华为技术有限公司 一种基于模板匹配的解码方法及装置
KR102450506B1 (ko) * 2017-07-31 2022-10-05 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
JP6994868B2 (ja) 2017-08-09 2022-01-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
WO2019032765A1 (en) * 2017-08-09 2019-02-14 Vid Scale, Inc. CONVERSION-ELEVATION OF FRAME FREQUENCY WITH REDUCED COMPLEXITY
US10659788B2 (en) 2017-11-20 2020-05-19 Google Llc Block-based optical flow estimation for motion compensated prediction in video coding
US11917128B2 (en) * 2017-08-22 2024-02-27 Google Llc Motion field estimation based on motion trajectory derivation
CN117615153A (zh) * 2017-08-29 2024-02-27 株式会社Kt 视频解码和编码方法及用于存储压缩视频数据的装置
EP3451669A1 (en) * 2017-08-29 2019-03-06 Thomson Licensing Methods and apparatus for improved compression/decompression using frame rate up conversion tools
EP3451665A1 (en) * 2017-09-01 2019-03-06 Thomson Licensing Refinement of internal sub-blocks of a coding unit
WO2019065444A1 (ja) * 2017-09-26 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2019066602A1 (ko) * 2017-09-29 2019-04-04 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN111567047B (zh) * 2017-10-09 2022-07-22 华为技术有限公司 进行子预测块运动矢量推导的存储器访问窗口
WO2019072369A1 (en) * 2017-10-09 2019-04-18 Huawei Technologies Co., Ltd. PRUNING MOTION VECTOR LIST
CN111201795B (zh) 2017-10-09 2022-07-26 华为技术有限公司 存储访问窗口和用于运动矢量修正的填充
WO2019072368A1 (en) * 2017-10-09 2019-04-18 Huawei Technologies Co., Ltd. LIMITED MEMORY ACCESS WINDOW FOR MOTION VECTOR REFINEMENT
WO2019072372A1 (en) * 2017-10-09 2019-04-18 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT OF A MOTION VECTOR POINTING TO A FRACTIONAL SAMPLE POSITION
WO2019072373A1 (en) * 2017-10-09 2019-04-18 Huawei Technologies Co., Ltd. UPDATING MODELS FOR REFINING MOTION VECTORS
US10785494B2 (en) * 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
WO2019087978A1 (ja) * 2017-10-30 2019-05-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2019093598A1 (ko) * 2017-11-09 2019-05-16 삼성전자 주식회사 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
US11070797B2 (en) * 2017-11-27 2021-07-20 Lg Electronics Inc. Image decoding method and apparatus based on inter prediction in image coding system
CN109996081B (zh) 2017-12-31 2023-09-12 华为技术有限公司 图像预测方法、装置以及编解码器
WO2019135648A1 (ko) * 2018-01-08 2019-07-11 삼성전자 주식회사 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
CN117579828A (zh) * 2018-01-09 2024-02-20 夏普株式会社 运动矢量推导装置、运动图像解码装置以及运动图像编码装置
US11265551B2 (en) * 2018-01-18 2022-03-01 Qualcomm Incorporated Decoder-side motion vector derivation
CN111656783B (zh) * 2018-01-25 2024-03-08 三星电子株式会社 使用基于子块的运动补偿进行视频信号处理的方法和装置
US11310526B2 (en) 2018-01-26 2022-04-19 Mediatek Inc. Hardware friendly constrained motion vector refinement
WO2019146718A1 (ja) * 2018-01-29 2019-08-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US10523948B2 (en) * 2018-02-05 2019-12-31 Tencent America LLC Method and apparatus for video coding
MX2020008575A (es) * 2018-02-15 2020-11-12 Arris Entpr Llc Tamaño de plantilla variable para coincidencia de plantilla.
EP3758374A4 (en) * 2018-02-22 2021-09-01 LG Electronics Inc. IMAGE DECODING METHOD AND DEVICE ACCORDING TO A BLOCK DIVISION STRUCTURE IN AN IMAGE ENCODING SYSTEM
CN117640962A (zh) 2018-03-19 2024-03-01 英迪股份有限公司 图像解码方法、图像编码方法和存储比特流的记录介质
BR112020018716A2 (pt) * 2018-03-19 2020-12-29 Qualcomm Incorporated Aperfeiçoamentos em predição de vetor de movimento temporal avançado
CN113315975B (zh) * 2018-03-29 2022-12-06 华为技术有限公司 一种双向帧间预测方法及装置
EP3780604A4 (en) * 2018-03-29 2021-12-22 Industry Academy Cooperation Foundation Of Sejong University IMAGE CODING / DECODING PROCESS AND APPARATUS
US10992930B2 (en) * 2018-03-30 2021-04-27 Hulu, LLC Template refined bi-prediction for video coding
WO2019188942A1 (en) * 2018-03-30 2019-10-03 Sharp Kabushiki Kaisha Systems and methods for performing motion compensated prediction for video coding
WO2019187096A1 (ja) * 2018-03-30 2019-10-03 株式会社ソシオネクスト 復号方法、復号装置、符号化装置及びプログラム
WO2019190224A1 (ko) * 2018-03-30 2019-10-03 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN111937391B (zh) * 2018-04-02 2024-03-29 寰发股份有限公司 用于视频编解码系统中的子块运动补偿的视频处理方法和装置
CN110337810B (zh) * 2018-04-02 2022-01-14 北京大学 用于视频处理的方法和设备
WO2019194109A1 (ja) 2018-04-04 2019-10-10 日本放送協会 予測画像補正装置、画像符号化装置、画像復号装置、及びプログラム
US10958928B2 (en) * 2018-04-10 2021-03-23 Qualcomm Incorporated Decoder-side motion vector derivation for video coding
WO2019200366A1 (en) * 2018-04-12 2019-10-17 Arris Enterprises Llc Motion information storage for video coding and signaling
WO2019203517A1 (ko) * 2018-04-15 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 움직임 정보 도출 방법 및 장치
WO2019203513A1 (ko) * 2018-04-16 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 dmvd 를 이용한 인터 예측에 따른 영상 디코딩 방법 및 장치
US10779002B2 (en) * 2018-04-17 2020-09-15 Qualcomm Incorporated Limitation of the MVP derivation based on decoder-side motion vector derivation
CN112042196A (zh) * 2018-04-18 2020-12-04 联发科技股份有限公司 在视频编解码中具有高级控制的候选重组
WO2019225932A1 (ko) * 2018-05-21 2019-11-28 엘지전자 주식회사 영상 코딩 시스템에서 dmvr을 사용하는 영상 디코딩 방법 및 그 장치
EP3813373A1 (en) * 2018-05-28 2021-04-28 InterDigital VC Holdings, Inc. Data dependency in coding/ decoding
WO2019228660A1 (en) 2018-06-01 2019-12-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video codec using template matching prediction
WO2019234598A1 (en) * 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Interaction between ibc and stmvp
EP3591969A1 (en) * 2018-07-02 2020-01-08 InterDigital VC Holdings, Inc. Syntax elements for video encoding or decoding
JP2021526329A (ja) * 2018-06-07 2021-09-30 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 映像のコード化又は映像の復号のためのシンタックス要素
WO2019234676A1 (en) * 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Mv precision refine
GB2587983B (en) * 2018-06-08 2023-03-22 Kt Corp Method and apparatus for processing a video signal
WO2019245260A1 (ko) * 2018-06-18 2019-12-26 세종대학교 산학협력단 영상 부호화/복호화 방법 및 장치
CN116347099A (zh) 2018-06-19 2023-06-27 北京字节跳动网络技术有限公司 没有运动矢量预测截断的选择的运动矢量差精度
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
GB2589223B (en) 2018-06-21 2023-01-25 Beijing Bytedance Network Tech Co Ltd Component-dependent sub-block dividing
WO2020004931A1 (ko) * 2018-06-27 2020-01-02 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 처리 방법 및 장치
AU2019296308B9 (en) * 2018-06-28 2023-08-03 Huawei Technologies Co., Ltd. Memory access window and padding for motion vector refinement and motion compensation
WO2020005002A1 (ko) * 2018-06-28 2020-01-02 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 템플릿 영역 도출 방법 및 장치
TWI744661B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 要根據模式檢查的查找表中的運動候選的數量
CN112335248B (zh) * 2018-06-29 2023-12-05 英迪股份有限公司 使用解码器侧的运动补偿的视频编码方法和装置
CN114885173A (zh) 2018-06-29 2022-08-09 抖音视界(北京)有限公司 Lut中的运动候选的检查顺序
TWI731358B (zh) 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 改進的時域運動向量預測推導
CN112369021A (zh) * 2018-06-29 2021-02-12 韩国电子通信研究院 用于吞吐量增强的图像编码/解码方法和设备以及存储比特流的记录介质
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
TWI731362B (zh) * 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 擴展Merge模式與其他視頻編碼工具之間的交互
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
CN115396677A (zh) * 2018-06-30 2022-11-25 抖音视界有限公司 用于视频编解码的对称性双向预测模式
US11758175B2 (en) * 2018-06-30 2023-09-12 B1 Institute Of Image Technology, Inc Image encoding/decoding method and apparatus
US10638153B2 (en) 2018-07-02 2020-04-28 Tencent America LLC For decoder side MV derivation and refinement
TWI731364B (zh) 2018-07-02 2021-06-21 大陸商北京字節跳動網絡技術有限公司 Hmvp+非相鄰運動
WO2020009427A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 영상 코딩 시스템의 인터 예측에서 템플릿 기반의 후보 리스트 재정렬 방법 및 장치
US10516885B1 (en) 2018-07-11 2019-12-24 Tencent America LLC Method and apparatus for video coding
US10701384B2 (en) * 2018-08-01 2020-06-30 Tencent America LLC Method and apparatus for improvement on decoder side motion derivation and refinement
US11336914B2 (en) * 2018-08-16 2022-05-17 Qualcomm Incorporated History-based candidate list with classification
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
US10958932B2 (en) * 2018-09-12 2021-03-23 Qualcomm Incorporated Inter-prediction coding of video data using generated motion vector predictor list including non-adjacent blocks
JP7297874B2 (ja) * 2018-09-13 2023-06-26 ホアウェイ・テクノロジーズ・カンパニー・リミテッド ビデオコーディングにおける条件付きデコーダ側動きベクトル精緻化のための装置および方法
TW202025737A (zh) 2018-09-19 2020-07-01 大陸商北京字節跳動網絡技術有限公司 仿射模式中自適應運動矢量分辨率的快速算法
JP6976916B2 (ja) * 2018-09-21 2021-12-08 Kddi株式会社 画像復号装置、画像符号化装置、画像処理システム及びプログラム
CN110944196B (zh) 2018-09-24 2023-05-30 北京字节跳动网络技术有限公司 简化的基于历史的运动矢量预测
WO2020070730A2 (en) * 2018-10-06 2020-04-09 Beijing Bytedance Network Technology Co., Ltd. Size restriction based on affine motion information
CN112913249B (zh) * 2018-10-22 2022-11-08 北京字节跳动网络技术有限公司 广义双向预测索引的简化编解码
CN111083484A (zh) * 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 基于子块的预测
CN111083491A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 细化运动矢量的利用
WO2020084553A1 (en) 2018-10-24 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Motion candidate derivation based on multiple information in sub-block motion vector prediction
CN117768658A (zh) 2018-11-06 2024-03-26 北京字节跳动网络技术有限公司 依赖位置的对运动信息的存储
JP2022505470A (ja) * 2018-11-08 2022-01-14 インターデジタル ヴイシー ホールディングス, インコーポレイテッド ブロックの面に基づくビデオの符号化又は復号のための量子化
BR112021008654A2 (pt) 2018-11-08 2021-08-10 Guangdong Oppo Mobile Telecommunications Corp., Ltd. método de decodificação vídeo, método de codificação de vídeo, e aparelho de decodificação de vídeo
CN112970262B (zh) * 2018-11-10 2024-02-20 北京字节跳动网络技术有限公司 三角预测模式中的取整
EP3857879A4 (en) 2018-11-12 2022-03-16 Beijing Bytedance Network Technology Co., Ltd. SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION
EP3861742A4 (en) 2018-11-20 2022-04-13 Beijing Bytedance Network Technology Co., Ltd. DIFFERENCE CALCULATION BASED ON SPATIAL POSITION
WO2020103877A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Coding and decoding of video coding modes
CN113056916A (zh) 2018-11-22 2021-06-29 北京字节跳动网络技术有限公司 基于子块的运动候选的选择和信令
WO2020103934A1 (en) * 2018-11-22 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Construction method for inter prediction with geometry partition
US10778977B2 (en) * 2018-12-05 2020-09-15 Qualcomm Incorporated Triangle motion information for video coding
CN113196747B (zh) * 2018-12-21 2023-04-14 北京字节跳动网络技术有限公司 当前图片参考模式下的信息信令通知
EP3884675B1 (en) * 2018-12-21 2023-11-29 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus of video coding for deriving affine motion vectors for chroma components
WO2020130678A1 (ko) * 2018-12-21 2020-06-25 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020135465A1 (en) 2018-12-28 2020-07-02 Beijing Bytedance Network Technology Co., Ltd. Modified history based motion prediction
US11252431B2 (en) 2019-01-02 2022-02-15 Telefonaktiebolaget Lm Ericsson (Publ) Side motion refinement in video encoding/decoding systems
WO2020140243A1 (zh) 2019-01-03 2020-07-09 北京大学 视频图像处理方法与装置
CN113545050B (zh) * 2019-01-03 2023-05-30 北京达佳互联信息技术有限公司 利用三角形预测的视频编解码方法及装置
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
EP3913918A4 (en) 2019-01-18 2023-01-18 Wilus Institute of Standards and Technology Inc. METHOD AND DEVICE FOR VIDEO SIGNAL PROCESSING INVOLVING MOTION COMPENSATION
WO2020164582A1 (en) * 2019-02-14 2020-08-20 Beijing Bytedance Network Technology Co., Ltd. Video processing method and apparatus
CN112868233B (zh) 2019-02-28 2023-03-21 华为技术有限公司 编码器、解码器及相应的帧间预测方法
WO2020177756A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Size dependent inter coding
WO2020185506A1 (en) 2019-03-08 2020-09-17 Beijing Dajia Internet Information Technology Co., Ltd. Bi-directional optical flow and decoder-side motion vector refinement for video coding
CN112954334A (zh) 2019-03-11 2021-06-11 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
WO2020184847A1 (ko) * 2019-03-12 2020-09-17 엘지전자 주식회사 Dmvr 및 bdof 기반의 인터 예측 방법 및 장치
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
KR20230169434A (ko) 2019-04-02 2023-12-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도
CN113647102A (zh) * 2019-04-09 2021-11-12 北京达佳互联信息技术有限公司 用于在视频编解码中用信号发送合并模式的方法和装置
AU2020256658A1 (en) 2019-04-12 2021-10-28 Beijing Bytedance Network Technology Co., Ltd. Most probable mode list construction for matrix-based intra prediction
WO2020211807A1 (en) 2019-04-16 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Matrix derivation in intra coding mode
CN117201791A (zh) 2019-04-28 2023-12-08 北京字节跳动网络技术有限公司 对称运动矢量差编解码
WO2020221256A1 (en) * 2019-04-28 2020-11-05 Beijing Bytedance Network Technology Co., Ltd. Symmetric motion vector difference coding
WO2020221372A1 (en) 2019-05-01 2020-11-05 Beijing Bytedance Network Technology Co., Ltd. Context coding for matrix-based intra prediction
WO2020221373A1 (en) 2019-05-01 2020-11-05 Beijing Bytedance Network Technology Co., Ltd. Matrix-based intra prediction using filtering
WO2020233663A1 (en) 2019-05-22 2020-11-26 Beijing Bytedance Network Technology Co., Ltd. Matrix-based intra prediction using upsampling
WO2020243100A1 (en) * 2019-05-26 2020-12-03 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus for improving motion estimation in video coding
CN114051735A (zh) 2019-05-31 2022-02-15 北京字节跳动网络技术有限公司 基于矩阵的帧内预测中的一步下采样过程
EP3963885A4 (en) 2019-06-05 2022-12-14 Beijing Bytedance Network Technology Co., Ltd. DETERMINING CONTEXT FOR MATRIX-BASED INTRAPREDICTION
WO2020263038A1 (ko) * 2019-06-27 2020-12-30 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
JP7359936B2 (ja) 2019-07-20 2023-10-11 北京字節跳動網絡技術有限公司 パレットモードの使用の指示の条件依存符号化
CN114145013B (zh) * 2019-07-23 2023-11-14 北京字节跳动网络技术有限公司 调色板模式编解码的模式确定
WO2021018031A1 (en) 2019-07-27 2021-02-04 Beijing Bytedance Network Technology Co., Ltd. Restrictions of usage of tools according to reference picture types
EP3997877A4 (en) 2019-08-13 2023-05-24 Beijing Bytedance Network Technology Co., Ltd. MOTION ACCURACY IN SUBBLOCK-BASED INTERPREDICTION
CN114762330A (zh) 2019-09-22 2022-07-15 北京字节跳动网络技术有限公司 视频的子图片编码和解码
US20210092427A1 (en) * 2019-09-23 2021-03-25 Qualcomm Incorporated Harmonized early termination in bdof and dmvr in video coding
WO2021061023A1 (en) * 2019-09-23 2021-04-01 Huawei Technologies Co., Ltd. Signaling for motion vector refinement
WO2021056205A1 (zh) * 2019-09-24 2021-04-01 北京大学 一种视频处理方法、设备及存储介质
CN110730350B (zh) * 2019-09-25 2021-08-24 杭州电子科技大学 结合编码深度估计和贝叶斯判决的shvc快速编码方法
CN112154356B (zh) * 2019-09-27 2024-03-15 深圳市大疆创新科技有限公司 点云数据处理方法及其装置、激光雷达、可移动平台
WO2020251418A2 (en) * 2019-10-01 2020-12-17 Huawei Technologies Co., Ltd. Method and apparatus of slice-level signaling for bi-directional optical flow and decoder side motion vector refinement
WO2020256601A2 (en) * 2019-10-03 2020-12-24 Huawei Technologies Co., Ltd. Method and apparatus of picture-level signaling for bidirectional optical flow and decoder side motion vector refinement
KR20220082847A (ko) 2019-10-28 2022-06-17 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 색상 성분에 기초한 신택스 시그널링 및 파싱
US11936899B2 (en) * 2021-03-12 2024-03-19 Lemon Inc. Methods and systems for motion candidate derivation
US11671616B2 (en) 2021-03-12 2023-06-06 Lemon Inc. Motion candidate derivation
WO2022211492A1 (ko) * 2021-04-02 2022-10-06 현대자동차주식회사 디코더 측면의 움직임 보상을 이용하는 비디오 코딩방법 및 장치
US11936877B2 (en) * 2021-04-12 2024-03-19 Qualcomm Incorporated Template matching based affine prediction for video coding
US20230139186A1 (en) * 2021-10-28 2023-05-04 Tencent America LLC Template-matching based adaptive motion vector resolution (amvr)
WO2023104083A1 (en) * 2021-12-07 2023-06-15 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
WO2023163386A1 (ko) * 2022-02-24 2023-08-31 현대자동차주식회사 블록 경계 불연속성을 감소시키는 비디오 코딩을 위한 방법 및 장치
US20230300364A1 (en) * 2022-03-15 2023-09-21 Tencent America LLC Temporal based subblock type motion vector predictor
US11968356B2 (en) * 2022-03-16 2024-04-23 Qualcomm Incorporated Decoder-side motion vector refinement (DMVR) inter prediction using shared interpolation filters and reference pixels
US20230328225A1 (en) * 2022-04-11 2023-10-12 Tencent America LLC Bilateral matching with affine motion
US20230370604A1 (en) * 2022-05-16 2023-11-16 Tencent America LLC Flexible scaling factors for joint mvd coding
US20230421751A1 (en) * 2022-05-23 2023-12-28 Tencent America LLC Subblock-based motion vector predictor with mv offset derived by template matching
US20240022711A1 (en) * 2022-07-13 2024-01-18 Tencent America LLC Block vector refinement method for intra block copy

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268259A (ja) * 2009-05-15 2010-11-25 Sony Corp 画像処理装置および方法、並びにプログラム
WO2011048904A1 (ja) * 2009-10-20 2011-04-28 シャープ株式会社 画像符号化装置、画像復号装置、および、符号化データのデータ構造
US20110176611A1 (en) * 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
US20110188579A1 (en) * 2008-09-28 2011-08-04 Huawei Technologies Co., Ltd. Method, apparatus and system for rapid motion search applied in template switching
WO2011142815A1 (en) * 2010-05-12 2011-11-17 Thomson Licensing Methods and apparatus for uni-prediction of self-derivation of motion estimation
EP2621174A2 (en) * 2009-12-08 2013-07-31 Thomson Licensing Methods and apparatus for adaptive template matching prediction for video encoding and decoding

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1578136A3 (en) 1998-01-27 2005-10-19 AT&T Corp. Method and apparatus for encoding video shape and texture information
US6438168B2 (en) 2000-06-27 2002-08-20 Bamboo Media Casting, Inc. Bandwidth scaling of a compressed video stream
CN101448162B (zh) 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7728909B2 (en) 2005-06-13 2010-06-01 Seiko Epson Corporation Method and system for estimating motion and compensating for perceived motion blur in digital video
EP1775954A1 (en) 2005-10-14 2007-04-18 Thomson Licensing Method and apparatus for reconstructing a video frame for spatial multi-layer video sequence
WO2008150498A1 (en) 2007-05-30 2008-12-11 University Of Georgia Research Foundation Inc. Human embryonic stem cell derived mesoderm-like epithelium transitions to mesenchymal progenitor cells
RU2010145524A (ru) * 2008-04-10 2012-05-20 Квэлкомм Инкорпорейтед (US) Симметрия для интерполяционной фильтрации субпиксельных позиций при кодировании видео
US9077971B2 (en) 2008-04-10 2015-07-07 Qualcomm Incorporated Interpolation-like filtering of integer-pixel positions in video coding
US8705622B2 (en) 2008-04-10 2014-04-22 Qualcomm Incorporated Interpolation filter support for sub-pixel resolution in video coding
JP5406465B2 (ja) 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
US8055025B2 (en) 2008-06-14 2011-11-08 City University Of Hong Kong Motion estimation method
KR101279573B1 (ko) 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
TWI405469B (zh) 2009-02-20 2013-08-11 Sony Corp Image processing apparatus and method
KR101671460B1 (ko) 2009-09-10 2016-11-02 에스케이 텔레콤주식회사 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
CN102131091B (zh) 2010-01-15 2013-01-23 联发科技股份有限公司 解码端运动向量导出方法
WO2011094871A1 (en) * 2010-02-05 2011-08-11 Sensio Technologies Inc. Method and apparatus of frame interpolation
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
US8837592B2 (en) * 2010-04-14 2014-09-16 Mediatek Inc. Method for performing local motion vector derivation during video coding of a coding unit, and associated apparatus
KR102080892B1 (ko) 2010-09-02 2020-02-24 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
EP2625858A4 (en) 2010-10-06 2015-01-14 Intel Corp SYSTEM AND METHOD FOR MOVING VECTOR REMOVAL WITH LOW COMPLEXITY
MX2013008691A (es) 2011-02-10 2013-08-21 Panasonic Corp Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
CN102685504B (zh) 2011-03-10 2015-08-19 华为技术有限公司 视频图像的编解码方法、编码装置、解码装置及其系统
EP2687015A4 (en) 2011-03-14 2014-12-17 Mediatek Inc METHOD AND DEVICE FOR OBTAINING PREDICTIONS FOR TEMPORARY MOTION VECTORS
KR101596409B1 (ko) * 2011-03-15 2016-02-23 인텔 코포레이션 저 메모리 액세스 모션 벡터 유도
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9247266B2 (en) 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
RS64604B1 (sr) 2011-06-16 2023-10-31 Ge Video Compression Llc Entropijsko kodiranje razlika vektora kretanja
US20130114717A1 (en) 2011-11-07 2013-05-09 Qualcomm Incorporated Generating additional merge candidates
MX355319B (es) 2011-11-08 2018-04-16 Kt Corp Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción.
US20130294519A1 (en) * 2011-12-22 2013-11-07 Marat Gilmutdinov Complexity scalable frame rate-up conversion
US20140010307A1 (en) * 2011-12-30 2014-01-09 Marat Ravilevich Gilmutdinov Method of and apparatus for complexity scalable frame rate up-conversion
US20130188715A1 (en) 2012-01-09 2013-07-25 Qualcomm Incorporated Device and methods for merge list reordering in video coding
US9749661B2 (en) 2012-01-18 2017-08-29 Qualcomm Incorporated Sub-streams for wavefront parallel processing in video coding
US9426463B2 (en) 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9998726B2 (en) 2012-06-20 2018-06-12 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
EP2904795A4 (en) 2012-10-03 2016-09-07 Mediatek Inc METHOD AND APPARATUS FOR THE HEREDITY OF MOTION INFORMATION IN THREE-DIMENSIONAL VIDEO CODING
US10375405B2 (en) 2012-10-05 2019-08-06 Qualcomm Incorporated Motion field upsampling for scalable coding based on high efficiency video coding
US9438928B2 (en) 2012-11-05 2016-09-06 Lifesize, Inc. Mechanism for video encoding based on estimates of statistically-popular motion vectors in frame
CN104704827B (zh) 2012-11-13 2019-04-12 英特尔公司 用于下一代视频的内容自适应变换译码
US9357212B2 (en) 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9350970B2 (en) 2012-12-14 2016-05-24 Qualcomm Incorporated Disparity vector derivation
CN104104960B (zh) 2013-04-03 2017-06-27 华为技术有限公司 多级双向运动估计方法及设备
US10129544B2 (en) 2013-07-30 2018-11-13 Riversilica Technologies Pvt Ltd System and method for performing optimal temporal predictive mode decision in H.264 video coding
US9762927B2 (en) 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9967558B1 (en) * 2013-12-17 2018-05-08 Google Llc Adaptive motion search control for variable block size partitions in video coding
US10531116B2 (en) 2014-01-09 2020-01-07 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
WO2015109598A1 (en) 2014-01-27 2015-07-30 Mediatek Singapore Pte. Ltd. Methods for motion parameter hole filling
US10412387B2 (en) 2014-08-22 2019-09-10 Qualcomm Incorporated Unified intra-block copy and inter-prediction
US10200711B2 (en) 2015-03-27 2019-02-05 Qualcomm Incorporated Motion vector derivation in video coding
US10616582B2 (en) 2016-09-30 2020-04-07 Qualcomm Incorporated Memory and bandwidth reduction of stored data in image/video coding
US10631002B2 (en) 2016-09-30 2020-04-21 Qualcomm Incorporated Frame rate up-conversion coding mode
US10805630B2 (en) 2017-04-28 2020-10-13 Qualcomm Incorporated Gradient based matching for motion search and derivation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110188579A1 (en) * 2008-09-28 2011-08-04 Huawei Technologies Co., Ltd. Method, apparatus and system for rapid motion search applied in template switching
JP2010268259A (ja) * 2009-05-15 2010-11-25 Sony Corp 画像処理装置および方法、並びにプログラム
WO2011048904A1 (ja) * 2009-10-20 2011-04-28 シャープ株式会社 画像符号化装置、画像復号装置、および、符号化データのデータ構造
EP2621174A2 (en) * 2009-12-08 2013-07-31 Thomson Licensing Methods and apparatus for adaptive template matching prediction for video encoding and decoding
US20110176611A1 (en) * 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
WO2011142815A1 (en) * 2010-05-12 2011-11-17 Thomson Licensing Methods and apparatus for uni-prediction of self-derivation of motion estimation

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SIXIN LIN ET AL.: "TE1: Huawei report on DMVD improvements", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-B037, JPN6020003769, July 2010 (2010-07-01), pages 1 - 13, ISSN: 0004287991 *
WEI-JUNG CHIEN AND MARTA KARCZEWICZ: "Extension of Advanced Temporal Motion Vector Prediction (ATMVP)", ITU - TELECOMMUNICATIONS STANDARDIZATION SECTOR STUDY GROUP 16 QUESTION 6 VIDEO CODING EXPERTS GROUP, vol. VCEG-AZ10, JPN6020003773, June 2015 (2015-06-01), pages 1 - 4, ISSN: 0004287993 *
YI-JEN CHIU ET AL.: "CE1 Subtest1: A joint proposal of candidate-based decoder-side motion vector derivation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-D448_r1, JPN6020003771, January 2011 (2011-01-01), pages 1 - 9, ISSN: 0004287992 *

Also Published As

Publication number Publication date
IL253849B (en) 2021-03-25
IL253849A0 (en) 2017-09-28
PH12017501470A1 (en) 2018-01-15
US20160286230A1 (en) 2016-09-29
RU2017132847A (ru) 2019-04-10
EP3275186A1 (en) 2018-01-31
DK3275188T3 (da) 2021-12-13
US10958927B2 (en) 2021-03-23
KR102520296B1 (ko) 2023-04-10
AU2016243518A1 (en) 2017-08-31
ES2898862T3 (es) 2022-03-09
PH12017501471A1 (en) 2018-01-29
EP3275188A1 (en) 2018-01-31
SA517382337B1 (ar) 2021-05-30
MX2017012060A (es) 2018-01-12
HUE057250T2 (hu) 2022-04-28
MY187426A (en) 2021-09-22
TW201639368A (zh) 2016-11-01
TW201639370A (zh) 2016-11-01
CA2976818A1 (en) 2016-10-06
AU2016243521A1 (en) 2017-08-31
CO2017009676A2 (es) 2017-12-15
RU2017133106A3 (ja) 2019-09-11
JP6783788B2 (ja) 2020-11-11
PL3275186T3 (pl) 2022-01-24
KR102519779B1 (ko) 2023-04-07
CO2017009672A2 (es) 2017-12-15
SI3275186T1 (sl) 2021-12-31
CL2017002384A1 (es) 2018-06-15
US11330284B2 (en) 2022-05-10
MX368146B (es) 2019-09-20
WO2016160608A1 (en) 2016-10-06
PL3275188T3 (pl) 2022-01-31
PT3275188T (pt) 2021-12-17
EP3275187A1 (en) 2018-01-31
SA517382334B1 (ar) 2021-10-24
RU2742298C2 (ru) 2021-02-04
CN107409225B (zh) 2020-01-07
EP3275188B1 (en) 2021-11-17
MX2017012065A (es) 2018-01-12
KR20170131446A (ko) 2017-11-29
CN107431820B (zh) 2020-01-10
CN107409225A (zh) 2017-11-28
MY188593A (en) 2021-12-22
SG11201706539PA (en) 2017-10-30
US10200711B2 (en) 2019-02-05
KR102519778B1 (ko) 2023-04-07
RU2017133236A3 (ja) 2019-09-20
NZ734552A (en) 2023-04-28
WO2016160605A1 (en) 2016-10-06
BR112017020635A2 (pt) 2018-06-26
AU2016243520A1 (en) 2017-08-31
CL2017002383A1 (es) 2018-06-15
JP2018513612A (ja) 2018-05-24
JP6740243B2 (ja) 2020-08-12
US20160286229A1 (en) 2016-09-29
SA517382335B1 (ar) 2022-02-06
DK3275186T3 (da) 2021-11-22
CA2976828A1 (en) 2016-10-06
CL2017002423A1 (es) 2018-07-13
CO2017009675A2 (es) 2017-12-15
TWI714565B (zh) 2021-01-01
AU2020207821B2 (en) 2022-04-07
JP2018512810A (ja) 2018-05-17
MX2017012059A (es) 2018-01-12
CN107431820A (zh) 2017-12-01
BR112017020627A2 (pt) 2018-07-03
PH12017501440A1 (en) 2018-01-15
RU2017132847A3 (ja) 2019-09-25
RU2017133236A (ru) 2019-04-05
CN107534766B (zh) 2020-05-08
CA2976827C (en) 2023-08-29
MY187812A (en) 2021-10-26
NZ734554A (en) 2023-03-31
CN107534766A (zh) 2018-01-02
EP3275186B1 (en) 2021-10-20
EP3275187B1 (en) 2021-09-29
HK1243259A1 (zh) 2018-07-06
TW201639369A (zh) 2016-11-01
ES2900029T3 (es) 2022-03-15
BR112017020632A2 (pt) 2018-06-26
SI3275188T1 (sl) 2022-01-31
KR20170131447A (ko) 2017-11-29
RU2705428C2 (ru) 2019-11-07
SG11201706534TA (en) 2017-10-30
KR20170131448A (ko) 2017-11-29
AU2020207821A1 (en) 2020-08-06
CA2976827A1 (en) 2016-10-06
RU2017133106A (ru) 2019-04-04
AU2020204590A1 (en) 2020-07-30
US20160286232A1 (en) 2016-09-29
TWI705703B (zh) 2020-09-21
RU2719296C2 (ru) 2020-04-17
PT3275186T (pt) 2021-11-25
AU2016243518B2 (en) 2020-07-30
SG11201706537WA (en) 2017-10-30
HUE056702T2 (hu) 2022-03-28
WO2016160609A1 (en) 2016-10-06

Similar Documents

Publication Publication Date Title
AU2020207821B2 (en) Motion vector derivation in video coding
CN111602399B (zh) 改进的解码器侧运动矢量推导
WO2019010123A1 (en) MODEL-BASED MATCHING BASED ON PARTIAL RECONSTRUCTION FOR A MOTION VECTOR DIVERSION

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200722

R150 Certificate of patent or registration of utility model

Ref document number: 6740243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250