JP2021507639A - ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダ - Google Patents

ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダ Download PDF

Info

Publication number
JP2021507639A
JP2021507639A JP2020535069A JP2020535069A JP2021507639A JP 2021507639 A JP2021507639 A JP 2021507639A JP 2020535069 A JP2020535069 A JP 2020535069A JP 2020535069 A JP2020535069 A JP 2020535069A JP 2021507639 A JP2021507639 A JP 2021507639A
Authority
JP
Japan
Prior art keywords
motion information
list
reference picture
candidates
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020535069A
Other languages
English (en)
Inventor
娜 ▲張▼
娜 ▲張▼
基程 安
基程 安
建▲フア▼ ▲鄭▼
建▲フア▼ ▲鄭▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2021507639A publication Critical patent/JP2021507639A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本出願の実施形態は、ピクチャブロックの動き情報を予測するための方法および関連する製品を開示する。方法は、現在のピクチャブロックの動き情報候補リストを決定するステップであって、動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値であり、P個の動き情報候補に対する重み付け係数の合計が1である、ステップと、動き情報候補リストの中の目標動き情報を決定するステップと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するステップであって、動き情報がイントラ予測またはインター予測のために使用される、ステップとを含む。本出願の実施形態における解決策は、ピクチャブロックの動き情報の予測の正確度を改善するのを助ける。

Description

本出願は、ビデオピクチャの符号化および復号の分野に関し、特に、ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダに関する。
MPEG-2、MPEG-4、ITU-TH.263、ITU-TH.264/MPEG-4 Part 10(アドバンストビデオコーディング(advanced video coding, AVC))、ITU-TH.265高効率ビデオコーディング(high efficiency video coding, HEVC)規格、およびそれらの規格の拡張部分に記載されているビデオ圧縮技術などのビデオ圧縮技術を使用することによって、デバイスは、デジタルビデオ情報を効率的に送受信することができる。一般に、ビデオシーケンスのピクチャは、符号化または復号のためにピクチャブロックへと分割される。
ビデオ圧縮技術において、ビデオシーケンスにおける冗長な情報を低減または除去するために、ピクチャブロックに基づく空間予測(イントラ予測、intra prediction)および/または時間予測(インター予測、inter prediction)が導入される。インター予測モードは、これらに限定はされないが、併合モード(Merge Mode)および非併合モード(たとえば、高度動きベクトル予測モード(AMVP mode))を含み得る。インター予測モードにおいて、インター予測は、多動き情報競争方法を使用することによって実行される。
インター予測の過程において、動き情報の複数のグループ(複数の動き情報候補とも称される)を含む、動き情報候補リスト(略して候補リストと称される)が導入される。たとえば、エンコーダは、現在の符号化されるべきピクチャブロックの最適な参照ピクチャブロック(すなわち、予測ブロック)を取得するために、候補リストから適切な動き情報候補のグループを選択することによって、現在の符号化されるべきピクチャブロックの動き情報(たとえば、動きベクトル)を予測することができる。イントラ予測の過程において、動き情報の複数のグループを含む候補リスト(ブロックベクトルとも称される)が導入されることがある。
しかしながら、併合モードであるか非併合モードであるかにかかわらず、候補リストの中の動き情報候補の最大の候補の数量は限られている。利用可能な動き情報候補が不十分であると、最大の候補の量の要件を満たすように、デフォルト値(たとえば、ゼロベクトル)が動き情報候補として候補リストに追加され、インデックス識別子が動き情報候補の各グループに割り当てられる。この慣行は、候補リストの中の一部の動き情報候補の参照の意義を相対的に小さくすることがあり、さらに、動きベクトル予測の正確度を相対的にある程度低くすることがあり、結果として、符号化および復号の性能に影響することがわかる。
本出願の実施形態は、動きベクトル予測の正確度を高め、それにより符号化および復号の性能を高めるための、ピクチャブロックの動き情報を予測するための方法および装置、対応するエンコーダ、ならびに対応するデコーダを提供する。
第1の態様によれば、本出願の実施形態は、ピクチャブロックの動き情報を予測するための方法を提供し、動き情報はイントラ予測またはインター予測のために使用され、この方法は、現在のピクチャブロックの動き情報候補リストを決定するステップであって、動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補(これは予測動き情報候補のP個のグループとも称され得る)を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、ステップと、動き情報候補リストの中の目標動き情報を決定するステップと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するステップとを含む。P個の動き情報候補に対する重み付け係数の合計は1であることを理解されたい。好ましくは、P個の動き情報候補の各々に対する重み付け係数wpiは、0よりも大きく1よりも小さい値であり得る。
たとえば、重み付け処理を通じて第1の合成された動き情報候補を取得するために使用されるP個の動き情報候補は、その参照ピクチャインデックスが目標参照ピクチャのインデックスと同じであるP個の動き情報候補であってもよく、または、参照ピクチャが同じであるかどうかにかかわらずP個の動き情報候補であってもよく、たとえば、一部の動き情報候補の参照ピクチャインデックスは目標参照ピクチャのインデックスと同じであり、一部の動き情報候補の参照ピクチャインデックスは目標参照ピクチャのインデックスと異なる。代替として、本出願のこの実施形態において提供され、重み付け処理を通じて第1の合成された動き情報候補を取得するために使用されるP個の動き情報候補は、その参照ピクチャインデックスが同じであるP個の動き情報候補であってもよく、または、その参照ピクチャインデックスが完全には同じではないP個の動き情報候補であってもよい。
1つまたは複数の合成された動き情報候補は、重み付け処理を通じて構築され得るので、参照のために使用されるより多くの動き情報候補を可能な限り多く発見することができ、それにより、動き情報候補が豊富になり、ゼロベクトル動き情報候補を用いた動き情報候補リストのパディングが、ある程度低減または回避されることがわかる。たとえば、同じ符号化および復号の応用のシナリオでは、本出願の技術的解決策が導入される前は、動き情報候補リストは、複数のゼロベクトルを用いてパディングされることがある。しかしながら、本出願の技術的解決策が導入された後は、ゼロベクトルがパディングされる必要はないことがあり、またはパディングされるべきゼロベクトルが減ることがある。このことは、動きベクトル予測の正確度をある程度高め、それにより符号化および復号の性能が高まる。
加えて、本明細書における現在のピクチャブロック(略して現在のブロックと称される)は、現在の符号化ブロック(coding block)または現在の復号ブロック(coding block)として理解され得ることが理解されるべきである。
加えて、動き情報候補リストの中の目標動き情報を決定することは、動き情報候補リストから、現在のピクチャブロックのために使用される最適な動き情報(最適な予測動き情報)を選択することとして理解され得ることが理解されるべきである。
加えて、本出願のこの実施形態において、重み付け処理が実行される(または重み付けが実行されるべきである)P個の動き情報候補は、以前に取得されたP個のオリジナル動き情報候補、または以前に取得されたP個の非オリジナル動き情報候補、または以前に取得され、オリジナル動き情報候補および非オリジナル動き情報候補を含むP個の動き情報候補、または動き情報候補リストに入れられているP個の動き情報候補、または動き情報候補リストに入れられる前のP個の動き情報候補であり得ることが理解されるべきである。これは、本出願のこの実施形態において限定されない。
加えて、本出願のこの実施形態において決定または構築され、現在のピクチャブロックの動き情報を予測するために使用される、動き情報候補リストは、1つまたは複数の合成された動き情報候補と、1つまたは複数のオリジナル動き情報候補とを含むことがあり、または、動き情報候補リストは、1つまたは複数の合成された動き情報候補のみを含むことがあり、または、動き情報候補リストは、1つまたは複数の合成された動き情報候補と、別の方式で取得された動き情報候補とを含むことがあることが理解されるべきである。これは、本出願のこの実施形態において限定されない。
加えて、本出願のこの実施形態において決定または構築される動き情報候補リストは、1つまたは複数のタイプの動き情報、たとえば、時間領域動き情報(時間領域方向の動き情報)、ビュー間動き情報(ビュー間方向の動き情報)、および/またはイントラ動き情報のうちの1つまたは複数を含み得ることが理解されるべきである。これは、本出願のこの実施形態において限定されない。
加えて、本出願のこの実施形態における動き情報候補リストの中の動き情報候補は、動きベクトルMVおよび参照ピクチャ指示情報を含み得ることが理解されるべきである。当然、動き情報候補は代替として、動きベクトルMVと参照ピクチャ指示情報の一方または両方を含み得る。たとえば、エンコーダ側とデコーダ側がともに参照ピクチャについて合意するとき、動き情報候補は動きベクトルMVのみを含み得る。動きベクトルは通常、水平成分のオフセットおよび垂直成分のオフセットを含む。たとえば、(x, y)はMVを表すために使用され、xは水平方向の位置オフセットを表し、yは垂直方向の位置オフセットを表す。参照ピクチャ指示情報は、これらに限定はされないが、参照ピクチャリストと、参照ピクチャリストに対応する参照ピクチャインデックスとを含み得る。参照ピクチャインデックスは、対応する参照ピクチャリスト(RefPicList0またはRefPicList1)の中の動きベクトルが指す参照ピクチャを特定するために使用される。ピクチャはフレームと称されることがあり、参照ピクチャは参照フレームと称されることがある。
本出願のこの実施形態における方法は、ピクチャブロックの動き情報を予測するための装置、たとえば、ビデオエンコーダ、ビデオデコーダ、またはビデオ符号化と復号の機能を有する電子デバイス、および特に、たとえば、ビデオエンコーダにおけるイントラ予測ユニットもしくはインター予測ユニット、またはビデオデコーダにおけるイントラ予測ユニットもしくは動き補償ユニットによって実行され得ることが理解されるべきである。
第1の態様に関して、第1の態様のいくつかの実装形態では、少なくとも1つの合成された動き情報候補は、第2の合成された動き情報候補をさらに含み、第2の合成された動き情報候補は、対応する重み付け係数を使用することによりM個の動き情報候補を重み付けすることによって取得され、Mは2以上の整数であり、M個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。たとえば、P個の動き情報候補のP個のインデックス識別子の中の少なくとも1つの動き情報候補のインデックス識別子は、M個の動き情報候補のM個のインデックス識別子の中の少なくとも1つの動き情報候補のインデックス識別子と異なる。M個の動き情報候補に対する重み付け係数の合計は1であることが理解されるべきである。
重み付け処理を通じて第2の合成された動き情報候補を取得するために使用されるM個の動き情報候補のインデックス識別子、および、本出願のこの実施形態において提供される重み付け処理を通じて第1の合成された動き情報候補を取得するために使用されるP個の動き情報候補のインデックス識別子は、互いに完全に異なる複数の動き情報候補に対応することがあり、または、互いに部分的に異なる複数の動き情報候補に対応することがあることがわかる。したがって、本出願のこの実施形態は、複数の重み付け合成方式を提供し、それにより、動き情報候補リストを構築する際の柔軟性および完全性をさらに高める。
第1の態様に関して、第1の態様のいくつかの実装形態では、P個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照ピクチャインデックスを含み、かつ、
P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の参照ピクチャインデックスが同じであり、もしくは、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の参照ピクチャインデックスが同じであり、もしくは、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数である。
本出願のこの実施形態において提供され、重み付け処理を通じて第1の合成された動き情報候補を取得するために使用される、P個の動き情報候補において、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補は、考慮されなくてよいことがわかる。たとえば、3つの動き情報候補があり、3つの動き情報候補のうちの2つの参照ピクチャインデックスが目標参照ピクチャのインデックスと同じであり、残りの1つの動き情報候補の参照ピクチャインデックスが目標参照ピクチャのインデックスと異なると仮定する。その参照ピクチャインデックスが目標参照ピクチャのインデックスと同じである2つの動き情報候補は、合成された動き情報候補を取得するために重み付けされてもよく、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補は、重み付けのために使用されない。代替として、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補が存在すると、目標参照ピクチャを指し示す動きベクトルを取得するために、動き情報候補の中の動きベクトルがまずスケーリングされ得る。
代替として、別の実装形態では、P個の動き情報候補が、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補を含む場合、P個の動き情報候補は重み付けのために使用されない。
第1の態様に関して、第1の態様のいくつかの実装形態では、第1の合成された動き情報候補は、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ、0よりも大きく1よりも小さい値である。P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
ある例では、P個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照フレームインデックス、または第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照フレームインデックス、またはこれらの組合せを含み得ることが理解されるべきである。言い換えると、P個の動き情報候補の各々は、前方予測方向において使用される動き情報、後方予測方向において使用される動き情報、またはこれらの組合せを含み得る。前方予測方向において使用される動き情報は、第1の参照ピクチャリストに対応する第1の参照ピクチャのインデックスおよび第1の参照ピクチャのインデックスに対応する第1の参照ピクチャを指す動きベクトルを含むことがあり、後方予測方向において使用される動き情報は、第2の参照ピクチャリストに対応する第2の参照ピクチャのインデックスおよび第2の参照ピクチャのインデックスに対応する第2の参照ピクチャを指す動きベクトルを含むことがある。
第1の態様に関して、第1の態様のいくつかの実装形態では、M個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照ピクチャインデックスを含み、かつ、
M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の参照ピクチャインデックスが同じであり、もしくは、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の参照ピクチャインデックスが同じであり、もしくは、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数である。
本出願のこの実施形態において提供され、重み付け処理を通じて第2の合成された動き情報候補を取得するために使用される、M個の動き情報候補において、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補は、考慮されなくてよいことがわかる。代替として、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補が存在すると、目標参照ピクチャを指し示す動きベクトルを取得するために、動き情報候補の中の動きベクトルがまずスケーリングされ得る。
代替として、別の実装形態では、M個の動き情報候補が、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補を含む場合、M個の動き情報候補は重み付けのために使用されない。
第1の態様に関して、第1の態様のいくつかの実装形態では、第2の合成された動き情報候補は、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
M個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照フレームインデックス、または第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照フレームインデックス、またはこれらの組合せを含み得ることが理解されるべきである。言い換えると、M個の動き情報候補の各々は、前方予測方向において使用される動き情報、後方予測方向において使用される動き情報、またはこれらの組合せを含むことがあり、前方予測方向において使用される動き情報は、第1の参照ピクチャリストに対応する第1の参照ピクチャのインデックスおよび第1の参照ピクチャのインデックスに対応する第1の参照ピクチャを指す動きベクトルを含むことがあり、後方予測方向において使用される動き情報は、第2の参照ピクチャリストに対応する第2の参照ピクチャのインデックスおよび第2の参照ピクチャのインデックスに対応する第2の参照ピクチャを指す動きベクトルを含むことがある。
第1の態様に関して、第1の態様のいくつかの実装形態では、P個の動き情報候補は、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、第1のインデックス識別子(第1のインデックス値とも称される)は第2のインデックス識別子(第2のインデックス値とも称される)未満であり、それに対応して、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。
任意選択で、動き情報候補リストの長さが2よりも大きい場合、動き情報候補リストの中のP個の動き情報候補は、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、第1のインデックス識別子によって占有されるビットの量は、第2のインデックス識別子によって占有されるビットの量よりも少なく、それに対応して、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。
第1の動き情報候補に対する重み付け係数と第2の動き情報候補に対する重み付け係数との間の値の関係は、第1のインデックス識別子と第2のインデックス識別子との間の値の関係に基づいて決定され得る(または、動き情報候補リストにおける第1のインデックス識別子および第2のインデックス識別子の配置場所に基づいて決定され得る)ことが理解されるべきである。第1のインデックス識別子が第2のインデックス識別子よりも小さい(または第1のインデックス識別子が第2のインデックス識別子よりも前に配置される)場合、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。
加えて、すべてのP個の動き情報候補に対する重み付け係数が同じであり、P個の動き情報候補に対する重み付け係数の合計が1である場合、第1の合成された動き情報候補を取得するためにP個の動き情報候補が重み付けされることは、第1の合成された動き情報候補を取得するためにP個の動き情報候補の平均値が計算されることとして理解され得ることが理解されるべきである。
本出願のこの実施形態において、重み付け係数は、1つまたは複数の動き情報候補と1対1で対応する1つまたは複数のインデックス識別子間の値の関係に基づいて、柔軟に決定されることがわかる。より強い相関をもつ動き情報候補に対する重み付け係数(重みとも称される)はより大きいので、動きベクトル予測の正確度がさらに高まる。
第1の態様に関して、第1の態様のいくつかの実装形態では、M個の動き情報候補は、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、第3のインデックス識別子は第4のインデックス識別子未満であり、それに対応して、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。
任意選択で、動き情報候補リストの長さが2よりも大きい場合、動き情報候補リストの中のM個の動き情報候補は、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、第3のインデックス識別子によって占有されるビットの量は、第4のインデックス識別子によって占有されるビットの量よりも少なく、それに対応して、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。
第3の動き情報候補に対する重み付け係数と第4の動き情報候補に対する重み付け係数との間の値の関係は、第3のインデックス識別子と第4のインデックス識別子との間の値の関係に基づいて決定され得る(または、動き情報候補リストにおける第3のインデックス識別子および第4のインデックス識別子の配置場所に基づいて決定され得る)ことが理解されるべきである。第3のインデックス識別子が第4のインデックス識別子よりも小さい(または第3のインデックス識別子が第4のインデックス識別子よりも前に配置される)場合、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。
加えて、すべてのM個の動き情報候補に対する重み付け係数が同じであり、M個の動き情報候補に対する重み付け係数の合計が1である場合、第2の合成された動き情報候補を取得するためにM個の動き情報候補が重み付けされることは、第2の合成された動き情報候補を取得するためにM個の動き情報候補の平均値が計算されることとして理解され得ることが理解されるべきである。
本出願のこの実施形態において、重み付け係数は、1つまたは複数の動き情報候補と1対1で対応する1つまたは複数のインデックス識別子間の値の関係に基づいて、柔軟に決定されることがわかる。より強い相関をもつ動き情報候補に対する重み付け係数(重みとも称される)はより大きいので、動きベクトル予測の正確度をさらに高める。
第1の態様に関して、第1の態様のいくつかの実装形態では、P個の動き情報候補は、P個のオリジナル動き情報候補、たとえば、動き情報候補リストの中のP個のオリジナル動き情報候補であり、または、P個の動き情報候補は、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補、たとえば、動き情報候補リストの中の(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、ここでXはP以下の正の整数である。
第1の態様に関して、第1の態様のいくつかの実装形態では、M個の動き情報候補は、M個のオリジナル動き情報候補、たとえば、動き情報候補リストの中のM個のオリジナル動き情報候補であり、または、M個の動き情報候補は、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補、たとえば、動き情報候補リストの中の(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、ここでYはM以下の正の整数である。
第1の態様に関して、第1の態様のいくつかの実装形態では、オリジナル動き情報候補は、現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、
非オリジナル動き情報候補は、スケーリングされた動き情報候補、第1の合成された動き情報候補、第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補は、第1の目標参照フレームを指し第1の参照リストの中にある動きベクトル、および/または、第2の目標参照フレームを指し第2の参照リストの中にある動きベクトルを含む。
本明細書の空間領域参照ブロックは、現在のピクチャブロックの空間領域に関する参照ブロックであり、現在のピクチャブロックが位置するピクチャの中にあり現在のピクチャブロックに隣接する1つまたは複数の空間領域参照ブロック、および/または、現在のピクチャブロックが位置するピクチャの中にあり現在のピクチャブロックに隣接しない1つまたは複数の空間領域参照ブロックを含み得ることに留意されたい。ある例では、現在のピクチャブロックが位置するピクチャの中にあり現在のピクチャブロックに隣接する1つまたは複数の空間領域参照ブロックは、現在のピクチャブロックの左下側に位置する第4の空間領域隣接ブロックA0、現在のピクチャブロックの左側に位置する第1の空間領域隣接ブロックA1、現在のピクチャブロックの右上側に位置する第3の区間領域隣接ブロックB0、現在のピクチャブロックの上側に位置する第2の空間領域隣接ブロックB1、または現在のピクチャブロックの左上側に位置する第5の空間領域隣接ブロックB2を含む。
本明細書の時間領域参照ブロックは、現在のピクチャブロックの時間領域に関する参照ブロックであり、参照ピクチャの中にあり同一位置ブロック(co-located block)に隣接する1つまたは複数の空間領域参照ブロック、および/または同一位置ブロックの中の1つまたは複数のサブブロックを含むことがあり、同一位置ブロックは、参照ピクチャの中にあり、かつサイズ、形状、および座標が現在のピクチャブロックのそれらと同じである、ピクチャブロックであり、または、同一位置ブロックは、参照ピクチャの中にあり、現在のピクチャブロックの指定された位置からオフセットの分だけずれており、かつサイズおよび形状がそれらの現在のピクチャブロックと同じである、ピクチャブロックであることに留意されたい。本明細書の参照ピクチャは再構築されたピクチャである。具体的には、本明細書の参照ピクチャは、1つまたは複数の参照ピクチャリストの中の参照ピクチャであり、たとえば、指定された参照ピクチャリストの中の指定された参照ピクチャインデックスに対応する参照ピクチャであることがあり、またはデフォルトの参照ピクチャリストの中の先頭位置の参照ピクチャであることがある。これは、本出願において限定されない。ある例では、時間領域参照ブロックは、現在のピクチャブロックの中にある、同一位置ブロック(co-located block)の右下の空間領域隣接ブロックH、同一位置ブロックの左上中間ブロックC0、同一位置ブロックの右下中間ブロックC3、同一位置ブロックの左上ブロックTL、または同一位置ブロックの右下ブロックBRを含む。
本明細書のビュー間参照ブロックは、現在のピクチャブロックの視点に関する参照ブロックであり、参照ピクチャの中にあり対応するブロックに隣接する1つまたは複数の空間領域参照ブロック、および/または対応するブロックの中の1つまたは複数のサブブロックを含むことがあり、対応するブロックは、参照ピクチャの中にあり、かつサイズ、形状、および座標が現在のピクチャブロックのそれらと同じである、ピクチャブロックであり、または、対応するブロックは、参照ピクチャの中にあり、現在のピクチャブロックの指定された位置からオフセットの分だけずれており、かつサイズおよび形状が現在のピクチャブロックのそれらと同じである、ピクチャブロック(具体的には、視差ベクトルを使用することによる位置決めを通じて取得される)であることに留意されたい。本明細書の参照ピクチャは再構築されたピクチャである。具体的には、本明細書の参照ピクチャは、参照点にあり、かつ現在のピクチャの瞬間と同じまたは異なる瞬間の、参照ピクチャである。これは、本出願において限定されない。
参照ブロックは決定された動きベクトルピクチャブロックである(コーディングされたピクチャブロックまたは復号されたピクチャブロックも指す)ことが理解されるべきである。
本明細書の合成された双方向予測動き情報候補は、動き情報候補リストに含まれるオリジナル動き情報候補の2つのグループの中の、異なる予測方向の動き情報候補を合成することによって取得される、双方向予測タイプの動き情報候補であることが理解されるべきである。本明細書の合成とは、双方向予測タイプの新たに構築される動き情報候補のグループを取得するために、オリジナル動き情報候補の一方のグループの中の前方予測方向のオリジナル動き情報候補と、オリジナル動き情報候補の他方のグループの中の後方予測方向のオリジナル動き情報候補とを合成することとして理解され得る。
第1の態様に関して、第1の態様のいくつかの実装形態では、スケーリングされた動き情報候補は、以下の方法、すなわち、
第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照フレーム、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照フレームを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと同じであるかどうか、および/もしくは、動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと同じであるかどうかを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと異なる場合、時間領域距離またはビュー間距離に基づいて、第1の目標参照フレームを指す動きベクトルを取得するために、動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルをスケーリングするステップ、および/または、
動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと異なる場合、時間領域距離またはビュー間距離に基づいて、第2の目標参照フレームを指す動きベクトルを取得するために、動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルをスケーリングするステップと
を使用することによって取得される。
ある例では、第1の目標参照フレームは、第1の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第1の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームであり、代替として、第2の目標参照フレームは、第2の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第2の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームである。
別の例では、動き情報候補リストの中には4個のオリジナル併合候補があり、それに対応して、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャであり、または、
第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャである。
さらに別の例では、動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R(たとえば、4)よりも大きい場合、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
加えて、動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量Rよりも大きい場合、第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
さらに別の例では、第1の目標参照ピクチャは、第1の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、かつ/または、
第2の目標参照ピクチャは、第2の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
重み付け処理が実行される(または重み付けが実行されるべきである)すべての動き情報候補がイントラ動き情報である場合、スケーリング処理が前もって実行される必要はなく、または、重み付け処理が実行される動き情報候補が、時間領域方向の動き情報および/もしくはビュー間方向の動き情報を含む場合、スケーリング処理が前もって実行される必要があることが理解されるべきである。
重み付け処理が実行される前に、目標参照フレームと異なる参照フレームを指す動きベクトルが前処理されるので、動きベクトルは、目標参照フレームを指す動きベクトルに対してスケーリングされ、それにより動きベクトル予測の有効性がさらに高まることがわかる。
第1の態様に関して、第1の態様のいくつかの実装形態では、合成された動き情報候補のインデックス識別子によって占有されるビットの量は、オリジナル動き情報候補のインデックス識別子によって占有されるビットの量以上である。
合成された動き情報候補のインデックス識別子は、比較的多数のビットを伴うインデックス識別子に設定され、それにより、動き情報候補リストを構築する既存の処理との互換性が促進されることがわかる。
第1の態様に関して、第1の態様のいくつかの実装形態では、合成された動き情報候補のインデックス識別子によって占有されるビットの量は、オリジナル動き情報候補のインデックス識別子によって占有されるビットの量以下である。
一部のイントラ予測モードまたはインター予測モードでは、合成された動き情報候補に基づく符号化および復号の効率は、オリジナル動き情報候補に基づく符号化および復号の効率よりも高いので、合成された動き情報候補が目標動き情報である確率は比較的高いことがわかる。したがって、合成された動き情報候補のインデックス識別子は、比較的少量のビットを伴うインデックス識別子に設定されてもよく、それにより、ビデオ送信のオーバーヘッドを減らすのを助ける。
第1の態様に関して、第1の態様のいくつかの実装形態では、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することは、現在のピクチャブロックの動き情報として目標動き情報を使用することを含む。
第1の態様に関して、第1の態様のいくつかの実装形態では、動き情報は動きベクトル予測を含み、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することは、現在のピクチャブロックの動きベクトル予測差分を取得するためにビットストリームを解析することと、目標動き情報における動きベクトル予測と動きベクトル予測差分との合計を現在のピクチャブロックの動きベクトルとして使用することとを含む。
第1の態様に関して、第1の態様のいくつかの実装形態では、この方法は、現在のピクチャブロックを符号化するために使用され、目標動き情報を決定するステップは、動き情報候補リストの中の目標動き情報を決定するステップを含み、目標動き情報を使用することによって現在のピクチャブロックを符号化するためのレートひずみコストが最小限であり、または、
この方法は、現在のピクチャブロックを復号するために使用され、目標動き情報を決定するステップは、動き情報候補リストの中の、第5のインデックス識別子によって示される目標動き情報を決定するステップを含み、第5のインデックス識別子は、動き情報候補リストの中の目標動き情報を示すために使用される。第5のインデックス識別子は、前述の第1の、第2の、第3の、もしくは第4のインデックス識別子のうちの1つであってもよく、または、前述の第1の、第2の、第3の、もしくは第4のインデックス識別子と異なるインデックス識別子であってもよいことが理解されるべきである。
動き情報候補リストが1つだけの動き情報候補を含む場合、一意な動き情報候補が目標の動き情報として決定されることに留意されたい。
本出願のこの実施形態におけるピクチャブロックの動き情報を予測するための方法は、併合(Merge)予測モードおよび/または高度動きベクトル予測(advanced motion vector prediction, AMVP)モードに適用可能であるだけではなく、現在のピクチャブロックの動き情報が、空間領域参照ブロックの動き情報、時間領域参照ブロックの動き情報、および/またはビュー間参照ブロックの動き情報を使用することによって予測される別のモードにも適用可能であるので、符号化および復号の性能が高まることがわかる。
本出願の第2の態様は、ピクチャブロックの動き情報を予測するための装置を提供し、動き情報はイントラ予測またはインター予測のために使用され、この装置は、現在のピクチャブロックの動き情報候補リストを決定するように構成される動き情報候補リスト決定ユニットであって、動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、動き情報候補リスト決定ユニットと、動き情報候補リストの中の目標動き情報を決定するように構成される目標動き情報決定ユニットと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するように構成される予測ユニットとを含む。P個の動き情報候補に対する重み付け係数の合計は1であることを理解されたい。好ましくは、P個の動き情報候補の各々に対する重み付け係数wpiは、0よりも大きく1よりも小さい値であり得る。
本明細書における現在のピクチャブロック(略して現在のブロックと称される)は、現在の符号化ブロックまたは現在の復号ブロックとして理解され得る。
動き情報候補リストは、1つまたは複数のタイプの動き情報候補、たとえば、時間領域動き情報(時間領域方向の動き情報とも称される)、ビュー間動き情報(ビュー間方向の動き情報とも称される)、および/またはイントラ動き情報のうちの1つまたは複数を含むことが留意されるべきである。
第2の態様に関して、第2の態様のいくつかの実装形態では、少なくとも1つの合成された動き情報候補は、第2の合成された動き情報候補をさらに含み、第2の合成された動き情報候補は、対応する重み付け係数を使用することによりM個の動き情報候補を重み付けすることによって取得され、Mは2以上の整数であり、M個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。たとえば、P個の動き情報候補のP個のインデックス識別子の中の少なくとも1つの動き情報候補のインデックス識別子は、M個の動き情報候補のM個のインデックス識別子の中の少なくとも1つの動き情報候補のインデックス識別子と異なる。M個の動き情報候補に対する重み付け係数の合計は1であることが理解されるべきである。
第2の態様に関して、第2の態様のいくつかの実装形態では、P個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照ピクチャインデックスを含み、かつ、
P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の参照ピクチャインデックスが同じであり、もしくは、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の参照ピクチャインデックスが同じであり、もしくは、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数である。
本出願のこの実施形態において提供され、重み付け処理を通じて第1の合成された動き情報候補を取得するために使用される、P個の動き情報候補において、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補は、考慮されなくてよいことがわかる。代替として、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補が存在すると、目標参照ピクチャを指し示す動きベクトルを取得するために、動き情報候補の中の動きベクトルがまずスケーリングされる必要がある。
第2の態様に関して、第2の態様のいくつかの実装形態では、第1の合成された動き情報候補は、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ、0よりも大きく1よりも小さい値である。P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第2の態様に関して、第2の態様のいくつかの実装形態では、M個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照ピクチャインデックスを含み、かつ、
M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の参照ピクチャインデックスが同じであり、もしくは、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の参照ピクチャインデックスが同じであり、もしくは、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数である。
本出願のこの実施形態において提供され、重み付け処理を通じて第2の合成された動き情報候補を取得するために使用される、M個の動き情報候補において、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補は、考慮されなくてよいことがわかる。代替として、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補が存在すると、目標参照ピクチャを指し示す動きベクトルを取得するために、動き情報候補の中の動きベクトルがまずスケーリングされる必要がある。
第2の態様に関して、第2の態様のいくつかの実装形態では、第2の合成された動き情報候補は、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第2の態様に関して、第2の態様のいくつかの実装形態では、P個の動き情報候補は、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、第1のインデックス識別子は第2のインデックス識別子未満であり、それに対応して、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。
第2の態様に関して、第2の態様のいくつかの実装形態では、M個の動き情報候補は、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、第3のインデックス識別子は第4のインデックス識別子未満であり、それに対応して、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。
第2の態様に関して、第2の態様のいくつかの実装形態では、P個の動き情報候補は、P個のオリジナル動き情報候補であり、または、P個の動き情報候補は、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、XはP以下の正の整数である。
第2の態様に関して、第2の態様のいくつかの実装形態では、M個の動き情報候補は、M個のオリジナル動き情報候補であり、または、M個の動き情報候補は、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、YはM以下の正の整数である。
第2の態様に関して、第2の態様のいくつかの実装形態では、オリジナル動き情報候補は、現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、
非オリジナル動き情報候補は、スケーリングされた動き情報候補、第1の合成された動き情報候補、第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補は、第1の目標参照フレームを指し第1の参照リストの中にある動きベクトル、および/または、第2の目標参照フレームを指し第2の参照リストの中にある動きベクトルを含む。
第2の態様に関して、第2の態様のいくつかの実装形態では、スケーリングされた動き情報候補は、以下のステップ、すなわち、
第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照フレーム、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照フレームを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと同じであるかどうか、および/もしくは、動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと同じであるかどうかを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと異なる場合、時間領域距離またはビュー間距離に基づいて、第1の目標参照フレームを指す動きベクトルを取得するために、動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルをスケーリングするステップ、および/または、
動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと異なる場合、時間領域距離またはビュー間距離に基づいて、第2の目標参照フレームを指す動きベクトルを取得するために、動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルをスケーリングするステップと
を実行することによって、動き情報候補リスト決定ユニットによって取得される。
ある例では、第1の目標参照フレームは、第1の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第1の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームであり、代替として、第2の目標参照フレームは、第2の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第2の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームである。
別の例では、動き情報候補リストの中には4個のオリジナル併合候補があり、それに対応して、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャであり、または、
第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャである。
さらに別の例では、第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャを決定することに関して、動き情報候補リスト決定ユニットは、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第1の目標参照ピクチャが、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定し、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R(たとえば、4)よりも大きい場合、第1の目標参照ピクチャが、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定する
ように特に構成される。
加えて、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照ピクチャを決定することに関して、動き情報候補リスト決定ユニットは、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第2の目標参照ピクチャが、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定し、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量Rよりも大きい場合、第2の目標参照ピクチャが、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定する
ように特に構成される。
さらに別の例では、第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照ピクチャを決定することに関して、動き情報候補リスト決定ユニットは、
第1の目標参照ピクチャが、第1の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定し、かつ/または、
第2の目標参照ピクチャが、第2の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定する
ように特に構成される。
第2の態様に関して、第2の態様のいくつかの実装形態では、合成された動き情報候補のインデックス識別子によって占有されるビットの量は、オリジナル動き情報候補のインデックス識別子によって占有されるビットの量以上である。
第2の態様に関して、第2の態様のいくつかの実装形態では、合成された動き情報候補のインデックス識別子によって占有されるビットの量は、オリジナル動き情報候補のインデックス識別子によって占有されるビットの量以下である。
第2の態様に関して、第2の態様のいくつかの実装形態では、予測ユニットは、現在のピクチャブロックの動き情報として目標動き情報を使用するように特に構成される。
第2の態様に関して、第2の態様のいくつかの実装形態では、動き情報は動きベクトル予測を含み、予測ユニットは、現在のピクチャブロックの動きベクトル差分を取得するためにビットストリームを解析し、目標動き情報における動きベクトル予測と動きベクトル予測差分との合計を現在のピクチャブロックの動きベクトルとして使用するように特に構成される。
第2の態様に関して、第2の態様のいくつかの実装形態では、装置は、現在のピクチャブロックを符号化するように構成され、目標動き情報を決定ユニットは、動き情報候補リストの中の目標動き情報を決定するように特に構成され、目標動き情報を使用することによって現在のピクチャブロックを符号化するためのレートひずみコストが最小限であり、または、
装置は、現在のピクチャブロックを復号するように構成され、目標動き情報決定ユニットは、動き情報候補リストの中の、第5のインデックス識別子によって示される目標動き情報を決定するように特に構成され、第5のインデックス識別子は、動き情報候補リストの中の目標動き情報を示すために使用される。
動き情報候補リストが1つだけの動き情報候補を含む場合、一意な動き情報候補が目標の動き情報として決定されることに留意されたい。
本出願の第3の態様は、ピクチャブロックの動き情報を予測するための装置を提供し、動き情報はイントラ予測またはインター予測のために使用され、この装置は、プロセッサと、プロセッサに接続されるメモリとを含み、プロセッサは、現在のピクチャブロックの動き情報候補リストを決定することであって、動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、ことと、動き情報候補リストの中の目標動き情報を決定することと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することとを行うように構成される。P個の動き情報候補に対する重み付け係数の合計は1であることを理解されたい。
本明細書における現在のピクチャブロック(略して現在のブロックと称される)は、現在の符号化ブロックまたは現在の復号ブロックとして理解され得る。
動き情報候補リストは、1つまたは複数のタイプの動き情報候補、たとえば、時間領域動き情報(時間領域方向の動き情報とも称される)、ビュー間動き情報(ビュー間方向の動き情報とも称される)、および/またはイントラ動き情報のうちの1つまたは複数を含むことが留意されるべきである。
第3の態様に関して、第3の態様のいくつかの実装形態では、少なくとも1つの合成された動き情報候補は、第2の合成された動き情報候補をさらに含み、第2の合成された動き情報候補は、対応する重み付け係数を使用することによりM個の動き情報候補を重み付けすることによって取得され、Mは2以上の整数であり、M個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。たとえば、P個の動き情報候補のP個のインデックス識別子の中の少なくとも1つの動き情報候補のインデックス識別子は、M個の動き情報候補のM個のインデックス識別子の中の少なくとも1つの動き情報候補のインデックス識別子と異なる。
M個の動き情報候補に対する重み付け係数の合計は1であることが理解されるべきである。
第3の態様に関して、第3の態様のいくつかの実装形態では、P個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照ピクチャインデックスを含み、かつ、
P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の参照ピクチャインデックスが同じであり、もしくは、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の参照ピクチャインデックスが同じであり、もしくは、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数である。
本出願のこの実施形態において提供され、重み付け処理を通じて第1の合成された動き情報候補を取得するために使用される、P個の動き情報候補において、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補は、考慮されなくてよいことがわかる。代替として、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補が存在すると、目標参照ピクチャを指し示す動きベクトルを取得するために、動き情報候補の中の動きベクトルがまずスケーリングされる必要がある。
第3の態様に関して、第3の態様のいくつかの実装形態では、第1の合成された動き情報候補は、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ、0よりも大きく1よりも小さい値である。P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第3の態様に関して、第3の態様のいくつかの実装形態では、M個の動き情報候補の各々は、第1の参照リストに対応する動きベクトルおよび第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび第2の参照リストに対応する参照ピクチャインデックスを含み、かつ、
M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の参照ピクチャインデックスが同じであり、もしくは、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の参照ピクチャインデックスが同じであり、もしくは、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数である。
本出願のこの実施形態において提供され、重み付け処理を通じて第2の合成された動き情報候補を取得するために使用される、M個の動き情報候補において、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補は、考慮されなくてよいことがわかる。代替として、その参照ピクチャインデックスが目標参照ピクチャのインデックスと異なる動き情報候補が存在すると、目標参照ピクチャを指し示す動きベクトルを取得するために、動き情報候補の中の動きベクトルがまずスケーリングされる必要がある。
第3の態様に関して、第3の態様のいくつかの実装形態では、第2の合成された動き情報候補は、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第3の態様に関して、第3の態様のいくつかの実装形態では、P個の動き情報候補は、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、第1のインデックス識別子は第2のインデックス識別子未満であり、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。
第3の態様に関して、第3の態様のいくつかの実装形態では、M個の動き情報候補は、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、第3のインデックス識別子は第4のインデックス識別子未満であり、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。
第3の態様に関して、第3の態様のいくつかの実装形態では、P個の動き情報候補は、P個のオリジナル動き情報候補であり、または、P個の動き情報候補は、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、XはP以下の正の整数である。
第3の態様に関して、第3の態様のいくつかの実装形態では、M個の動き情報候補は、M個のオリジナル動き情報候補であり、または、M個の動き情報候補は、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、YはM以下の正の整数である。
第3の態様に関して、第3の態様のいくつかの実装形態では、オリジナル動き情報候補は、現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、
非オリジナル動き情報候補は、スケーリングされた動き情報候補、第1の合成された動き情報候補、第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補は、第1の目標参照フレームを指し第1の参照リストの中にある動きベクトル、および/または、第2の目標参照フレームを指し第2の参照リストの中にある動きベクトルを含む。
第3の態様に関して、第3の態様のいくつかの実装形態では、スケーリングされた動き情報候補は、以下のステップ、すなわち、
第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照フレーム、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照フレームを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと同じであるかどうか、および/もしくは、動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと同じであるかどうかを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと異なる場合、第1の目標参照フレームを指す動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルをスケーリングするステップ、および/または、
動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと異なる場合、第2の目標参照フレームを指す動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルをスケーリングするステップと
を実行することによって、プロセッサによって取得される。
ある例では、第1の目標参照フレームは、第1の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第1の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームであり、代替として、第2の目標参照フレームは、第2の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第2の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームである。
別の例では、動き情報候補リストの中には4個のオリジナル併合候補があり、それに対応して、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャであり、または、
第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャである。
さらに別の例では、動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R(たとえば、4)よりも大きい場合、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
加えて、動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量Rよりも大きい場合、第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
さらに別の例では、第1の目標参照ピクチャは、第1の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、かつ/または、
第2の目標参照ピクチャは、第2の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
第3の態様に関して、第3の態様のいくつかの実装形態では、合成された動き情報候補のインデックス識別子によって占有されるビットの量は、オリジナル動き情報候補のインデックス識別子によって占有されるビットの量以上である。
第3の態様に関して、第3の態様のいくつかの実装形態では、合成された動き情報候補のインデックス識別子によって占有されるビットの量は、オリジナル動き情報候補のインデックス識別子によって占有されるビットの量以下である。
第3の態様に関して、第3の態様のいくつかの実装形態では、プロセッサは、現在のピクチャブロックの動き情報として目標動き情報を使用するように特に構成される。
第3の態様に関して、第3の態様のいくつかの実装形態では、動き情報は動きベクトル予測を含み、プロセッサは、現在のピクチャブロックの動きベクトル差分を取得するためにビットストリームを解析し、目標動き情報における動きベクトル予測と動きベクトル差分との合計を現在のピクチャブロックの動きベクトルとして使用するように特に構成される。
第3の態様に関して、第3の態様のいくつかの実装形態では、装置は、現在のピクチャブロックを符号化するように構成され、プロセッサは、動き情報候補リストの中の目標動き情報を決定するように特に構成され、目標動き情報を使用することによって現在のピクチャブロックを符号化するためのレートひずみコストが最小限であり、または、
装置は、現在のピクチャブロックを復号するように構成され、プロセッサは、動き情報候補リストの中の、第5のインデックス識別子によって示される目標動き情報を決定するように特に構成され、第5のインデックス識別子は、動き情報候補リストの中の目標動き情報を示すために使用される。
動き情報候補リストが1つだけの動き情報候補を含む場合、一意な動き情報候補が目標の動き情報として決定されることに留意されたい。
本出願の第4の態様は、ピクチャブロックの動き情報を予測するための方法を提供し、動き情報はイントラ予測またはインター予測のために使用され、この方法は、少なくとも1つの合成された動き情報候補を取得するステップであって、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、ステップと、目標動き情報を決定するステップであって、目標動き情報が、少なくとも1つの合成された動き情報候補の中の1つの動き情報候補である、ステップと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するステップとを含む。P個の動き情報候補に対する重み付け係数の合計は1であることを理解されたい。好ましくは、P個の動き情報候補の各々に対する重み付け係数wpiは、0よりも大きく1よりも小さい値であり得る。
本明細書における現在のピクチャブロック(略して現在のブロックと称される)は、現在の符号化ブロックまたは現在の復号ブロックとして理解され得る。
加えて、方法が、処理されるべきピクチャブロックを符号化するために使用されるとき、1つの合成された動き情報候補が取得される場合、その唯一の合成された動き情報候補が目標動き情報であることが決定され、または、1つよりも多くの合成された動き情報候補が取得される場合、目標動き情報は、1つよりも多くの合成された動き情報候補において決定され、目標動き情報を使用することによって現在のピクチャブロックを符号化するためのレートひずみコストは最小限である。
方法が、処理されるべきピクチャブロックを復号するために使用されるとき、1つの合成された動き情報候補が取得される場合、その唯一の合成された動き情報候補が目標動き情報であることが決定され、または、1つよりも多くの合成された動き情報候補が取得される場合、ビットストリームの中の識別情報によって示される目標動き情報は、1つよりも多くの合成された動き情報候補において決定される。
第4の態様に関して、第4の態様のいくつかの実装形態では、第1の合成された動き情報候補は、P個の動き情報候補の中にあり前方予測方向において使用される、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり後方予測方向において使用される、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ、0よりも大きく1よりも小さい値である。P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第4の態様に関して、第4の態様のいくつかの実装形態では、第2の合成された動き情報候補は、M個の動き情報候補の中にあり前方予測方向において使用される、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり後方予測方向において使用される、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第4の態様に関して、第4の態様のいくつかの実装形態では、P個の動き情報候補は、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、第1のインデックス識別子は第2のインデックス識別子未満であり、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。
第4の態様に関して、第4の態様のいくつかの実装形態では、M個の動き情報候補は、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、第3のインデックス識別子は第4のインデックス識別子未満であり、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。
第4の態様に関して、第4の態様のいくつかの実装形態では、P個の動き情報候補は、P個のオリジナル動き情報候補であり、または、P個の動き情報候補は、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、XはP以下の正の整数である。
第4の態様に関して、第4の態様のいくつかの実装形態では、M個の動き情報候補は、M個のオリジナル動き情報候補であり、または、M個の動き情報候補は、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、YはM以下の正の整数である。
第4の態様に関して、第4の態様のいくつかの実装形態では、オリジナル動き情報候補は、現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、
非オリジナル動き情報候補は、スケーリングされた動き情報候補、第1の合成された動き情報候補、第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補は、第1の目標参照フレームを指し第1の参照リストの中にある動きベクトル、および/または、第2の目標参照フレームを指し第2の参照リストの中にある動きベクトルを含む。
第4の態様に関して、第4の態様のいくつかの実装形態では、スケーリングされた動き情報候補は、以下の方法、すなわち、
第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照フレーム、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照フレームを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと同じであるかどうか、および/もしくは、動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと同じであるかどうかを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと異なる場合、第1の目標参照フレームを指す動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルをスケーリングするステップ、および/または、
動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと異なる場合、第2の目標参照フレームを指す動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルをスケーリングするステップと
を使用することによって、取得される。
ある例では、第1の目標参照フレームは、第1の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第1の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームであり、代替として、第2の目標参照フレームは、第2の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第2の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームである。
別の例では、動き情報候補リストの中には4個のオリジナル併合候補があり、それに対応して、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャであり、または、
第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中のオリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャである。
さらに別の例では、動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R(たとえば、4)よりも大きい場合、第1の目標参照ピクチャは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
加えて、動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、または、
動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量Rよりも大きい場合、第2の目標参照ピクチャは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、動き情報候補リストの中の最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
さらに別の例では、第1の目標参照ピクチャは、第1の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第1の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであり、かつ/または、
第2の目標参照ピクチャは、第2の参照リストに対応する、合成されるべきP個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、第2の参照リストに対応する、P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである。
第4の態様に関して、第4の態様のいくつかの実装形態では、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することは、現在のピクチャブロックの動き情報として目標動き情報を使用することを含む。
第4の態様に関して、第4の態様のいくつかの実装形態では、動き情報は動きベクトル予測を含み、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することは、現在のピクチャブロックの動きベクトル予測差分を取得するためにビットストリームを解析することと、目標動き情報における動きベクトル予測と動きベクトル予測差分との合計を現在のピクチャブロックの動きベクトルとして使用することとを含む。
本出願の第5の態様は、ピクチャブロックの動き情報を予測するための装置を提供し、この装置は、第4の態様のいずれか1つまたはそれらの実装形態に従って方法を実施するように構成されるいくつかの機能ユニットを含む。たとえば、ピクチャブロックの動き情報を予測するための装置は、
少なくとも1つの合成された動き情報候補を取得するように構成される動き情報取得ユニットであって、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、動き情報取得ユニットと、目標動き情報を決定するように構成される動き情報決定ユニットであって、目標動き情報が、少なくとも1つの合成された動き情報候補の中の1つの動き情報候補である、動き情報決定ユニットと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するように構成される予測ユニットとを含み得る。
P個の動き情報候補に対する重み付け係数の合計は1であることが理解されるべきである。加えて、本明細書における現在のピクチャブロック(略して現在のブロックと称される)は、現在の符号化ブロックまたは現在の復号ブロックとして理解され得る。
ピクチャブロックの動き情報を予測するための装置は、たとえば、ビデオ符号化装置(ビデオエンコーダ)またはビデオ復号装置(ビデオデコーダ)に適用される。
本出願の第6の態様は、ピクチャブロックの動き情報を予測するための装置を提供し、動き情報はイントラ予測またはインター予測のために使用され、この装置は、プロセッサと、プロセッサに接続されたメモリとを含み、このプロセッサは、少なくとも1つの合成された動き情報候補を取得することであって、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、ことと、目標動き情報を決定することであって、目標動き情報が、少なくとも1つの合成された動き情報候補の中の1つの動き情報候補である、ことと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することとを行うように構成される。P個の動き情報候補に対する重み付け係数の合計は1であることが理解されるべきである。
本明細書における現在のピクチャブロック(略して現在のブロックと称される)は、現在の符号化ブロックまたは現在の復号ブロックとして理解され得る。
本出願の第7の態様はビデオエンコーダであり、ビデオエンコーダは、ピクチャブロックを符号化するように構成され、
第2の態様、第3の態様、第5の態様、または第6の態様に従って、ピクチャブロックの動き情報を予測するための装置を含む、インター予測器(インター予測ユニットとも称される)であって、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測し、現在のピクチャブロックの動き情報に基づいて現在の符号化ブロックの予測ブロックを決定するように構成されるインター予測器と、目標動き情報のインデックス識別子をビットストリームへと符号化するように構成されるエントロピーエンコーダ(エントロピー符号化ユニットとも称される)であって、インデックス識別子が現在の符号化ブロックのために使用される目標動き情報を示すために使用される、エントロピーエンコーダと、予測ブロックに基づいてピクチャブロックを再構築するように構成される再構築器(再構築ユニットとも称される)とを含む。
第7の態様に関して、第7の態様のいくつかの実装形態では、インター予測器は、動き情報候補リストに含まれる複数の動き情報候補から、現在の符号化ブロックのために使用される目標動き情報を選択するようにさらに構成され、選択された目標動き情報を使用することによって現在の符号化ブロックを符号化するためのレートひずみコストは最小限である。
本出願の第8の態様はビデオエンコーダを提供し、ビデオエンコーダは、ピクチャブロックを符号化するように構成され、
第2の態様、第3の態様、第5の態様、または第6の態様に従って、ピクチャブロックの動き情報を予測するための装置を含む、イントラ予測器(イントラ予測ユニットとも称される)であって、目標動き情報に基づいて現在のピクチャブロックのイントラ動き情報を予測し、現在のピクチャブロックのイントラ動き情報に基づいて現在の符号化ブロックのイントラ予測ブロックを決定するように構成されるイントラ予測器と、目標動き情報のインデックス識別子をビットストリームへと符号化するように構成されるエントロピーエンコーダ(エントロピー符号化ユニットとも称される)であって、インデックス識別子が現在の符号化ブロックのために使用される目標動き情報を示すために使用される、エントロピーエンコーダと、イントラ予測ブロックに基づいてピクチャブロックを再構築するように構成される再構築器(再構築ユニットとも称される)とを含む。
第8の態様に関して、第8の態様のいくつかの実装形態では、イントラ予測器は、動き情報候補リストに含まれる複数の動き情報候補から、現在の符号化ブロックのために使用される目標動き情報を選択するようにさらに構成され、選択された目標動き情報を使用することによって現在の符号化ブロックを符号化するためのレートひずみコストは最小限である。
本出願の第9の態様はビデオデコーダを提供し、ビデオデコーダは、ビットストリームを復号してピクチャブロックを取得するように構成され、ビットストリームを復号してインデックス識別子を取得するように構成されるエントロピーデコーダ(エントロピー復号ユニットとも称される)であって、インデックス識別子が現在の復号ブロックのための目標動き情報を示すために使用される、エントロピーデコーダと、第2の態様、第3の態様、第5の態様、または第6の態様に従ってピクチャブロックの動き情報を予測するための装置を含む、インター予測器(インター予測ユニットとも称される)であって、インデックス識別子によって示される目標動き情報に基づいて現在のピクチャブロックの動き情報を予測し、現在のピクチャブロックの動き情報に基づいて現在の復号ブロックの予測ブロックを決定するように構成されるインター予測器と、予測ブロックに基づいてピクチャブロックを再構築するように構成される再構築器(再構築ユニットとも称される)とを含む。
本出願の第10の態様はビデオデコーダを提供し、ビデオデコーダは、ビットストリームを復号してピクチャブロックを取得するように構成され、ビットストリームを復号してインデックス識別子を取得するように構成されるエントロピーデコーダ(エントロピー復号ユニットとも称される)であって、インデックス識別子が現在の復号ブロックのための目標動き情報を示すために使用される、エントロピーデコーダと、第2の態様、第3の態様、第5の態様、または第6の態様に従ってピクチャブロックの動き情報を予測するための装置を含む、イントラ予測器(イントラ予測ユニットとも称される)であって、インデックス識別子によって示される目標動き情報に基づいて現在のピクチャブロックの動き情報を予測し、現在のピクチャブロックの動き情報に基づいて現在の復号ブロックの予測ブロックを決定するように構成されるイントラ予測器と、予測ブロックに基づいてピクチャブロックを再構築するように構成される再構築器(再構築ユニットとも称される)とを含む。
本出願の第11の態様は、コンピュータ可読記憶媒体を提供し、コンピュータ可読記憶媒体は命令を記憶し、命令がコンピュータ上で実行されると、コンピュータは、第1の態様、第4の態様、第16の態様、第18の態様、または第19の態様による方法を実行可能となる。
本出願の第12の態様は、命令を含むコンピュータプログラム製品を提供する。コンピュータプログラム製品がコンピュータ上で実行されると、コンピュータは、第1の態様、第4の態様、第16の態様、第18の態様、または第19の態様による方法を実行可能となる。
本出願の第13の態様は、第7の態様もしくは第8の態様よるビデオエンコーダ、第9の態様もしくは第10の態様によるビデオデコーダ、または、第2の態様、第3の態様、第5の態様、第6の態様、第17の態様、もしくは第20の態様によるピクチャブロックの動き情報を予測するための装置を含む、電子デバイスを提供する。
本出願の第14の態様は、互いに接続される不揮発性メモリおよびプロセッサを含む符号化デバイスを提供し、プロセッサは、メモリに記憶されているプログラムコードを呼び出して、第1の態様、第4の態様、第16の態様、第18の態様、または第19の態様による方法の一部またはすべてのステップを実行する。
本出願の第15の態様は、互いに接続される不揮発性メモリおよびプロセッサを含む復号デバイスを提供し、プロセッサは、メモリに記憶されているプログラムコードを呼び出して、第1の態様、第4の態様、第16の態様、第18の態様、または第19の態様による方法の一部またはすべてのステップを実行する。
本出願の第16の態様は、ピクチャブロックの動き情報を予測するための方法を提供し、動き情報はイントラ予測またはインター予測のために使用され、この方法は、第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照ピクチャを決定するステップと、P個または(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じであるかどうか、および/または、P個または(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じであるかどうかを決定するステップと、P個または(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けするステップ、および/または、P個または(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けするステップと、現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定するステップであって、動き情報候補リストが第1の合成された動き情報候補を含む、ステップと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するステップとを含む。
第1の目標参照ピクチャが、第1の参照リストに対応する、P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じであるかどうかが決定され、または、第2の目標参照ピクチャが、第2の参照リストに対応する、P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じであるかどうかが決定される。
本出願の第17の態様は、ピクチャブロックの動き情報を予測するための装置を提供し、動き情報はイントラ予測またはインター予測のために使用され、装置は、プロセッサと、プロセッサに接続されるメモリとを含み、
プロセッサは、第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照ピクチャを決定することと、P個または(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じであるかどうか、および/もしくは、P個または(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じであるかどうかを決定することと、P個または(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けすること、および/または、P個または(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けすることと、現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定することであって、動き情報候補リストが第1の合成された動き情報候補を含む、ことと、目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することとを行うように構成される。
第1の目標参照ピクチャが、第1の参照リストに対応する、P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じであるかどうかが決定され、または、第2の目標参照ピクチャが、第2の参照リストに対応する、P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じであるかどうかが決定される。
本出願の第18の態様は、合成された動き情報候補を取得するための方法を提供し、この方法は、第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照ピクチャを決定するステップと、P個または(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じであるかどうか、および/または、P個または(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じであるかどうかを決定するステップと、P個または(P-1)個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けするステップ、および/または、P個または(P-1)個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けするステップとを含む。
本出願の第19の態様は、ピクチャブロックの動き情報を予測するための方法を提供し、動き情報はイントラ予測またはインター予測のために使用され、この方法は、
第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照ピクチャを決定するステップと、
第1の合成された動き情報候補の中にあり第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けするステップであって、P個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが、第1の目標参照ピクチャと同じである、ステップ、および/または、
第1の合成された動き情報候補の中にあり第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けするステップであって、P個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが、第2の目標参照ピクチャと同じである、ステップと、
現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定するステップであって、動き情報候補リストが、第1の合成された動き情報候補を含む、ステップと、
目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するステップとを含む。
本出願の第20の態様は、ピクチャブロックの動き情報を予測するための装置を提供し、動き情報はイントラ予測またはインター予測のために使用され、装置は、プロセッサと、プロセッサに接続されるメモリとを含み、
プロセッサは、
第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照ピクチャを決定することと、
第1の合成された動き情報候補の中にあり第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けすることであって、P個の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが、第1の目標参照ピクチャと同じである、こと、および/または、
第1の合成された動き情報候補の中にあり第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けすることであって、P個の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが、第2の目標参照ピクチャと同じである、ことと、
現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定することであって、動き情報候補リストが、第1の合成された動き情報候補を含む、ことと、
目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することとを行うように構成される。
本出願の第21の態様は、ピクチャブロックの動き情報を予測するための方法を提供し、動き情報はイントラ予測またはインター予測のために使用され、この方法は、
第1の合成された動き情報候補の中にあり第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けするステップ、および/または、
第1の合成された動き情報候補の中にあり第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けするステップと、
現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定するステップであって、動き情報候補リストが、第1の合成された動き情報候補を含む、ステップと、
目標動き情報に基づいて現在のピクチャブロックの動き情報を予測するステップとを含む。
本出願の第22の態様は、ピクチャブロックの動き情報を予測するための装置を提供し、動き情報はイントラ予測またはインター予測のために使用され、装置は、プロセッサと、プロセッサに接続されるメモリとを含み、
プロセッサは、
第1の合成された動き情報候補の中にあり第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けすることと、
第1の合成された動き情報候補の中にあり第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けすることと、
現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定することであって、動き情報候補リストが、第1の合成された動き情報候補を含む、ことと、
目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することとを行うように構成される。
本出願の第2の態様から第22の態様における技術的解決策は、本出願の第1の態様における技術的解決策と一貫していることが理解されるべきである。様々な態様および対応する実現可能な実装形態によって達成される有利な効果は類似しており、詳細は再び説明されない。
本出願の実施形態において、または背景技術においてより明確に技術的解決策を説明するために、以下は、本出願の実施形態または背景技術を説明するために必要とされる添付の図面を簡潔に説明する。
本出願のある実施形態による、ビデオ符号化および復号システムの概略ブロック図である。 本出願のある実施形態による、ビデオエンコーダの概略ブロック図である。 本出願のある実施形態による、ビデオデコーダの概略ブロック図である。 本出願のある実施形態による、併合モードにおいてビデオエンコーダによって実行される符号化方法の例示的なフローチャートである。 本出願のある実施形態による、高度動きベクトル予測モードにおいてビデオエンコーダによって実行される符号化方法の例示的なフローチャートである。 本出願のある実施形態による、ビデオデコーダによって実行される動き補償の例示的なフローチャートである。 本出願のある実施形態による、符号化ユニットの例示的な概略図である。 本出願のある実施形態による、符号化ユニットと関連付けられる空間領域参照ブロックおよび時間領域参照ブロックの例示的な概略図である。 本出願のある実施形態による、符号化ユニットおよび符号化ユニットと関連付けられる対応するビュー間ブロックの例示的な概略図である。 本出願のある実施形態による、ピクチャブロックの動き情報を予測するための方法のフローチャートである。 本出願のある実施形態による、合成された動き情報候補を併合モード候補リストに追加することの例示的な概略図である。 本出願のある実施形態による、合成された動き情報候補を併合モード候補リストに追加することの別の例示的な概略図である。 本出願のある実施形態による、スケーリング処理の例示的な概略図である。 本出願のある実施形態による、合成された動き情報候補をAMVPモード候補リストに追加することの例示的な概略図である。 本出願のある実施形態による、予測動きベクトル候補リストを構築する例示的なフローチャートである。 本出願のある実施形態による、合成された双方向予測動き情報候補を併合モード候補リストに追加することの例示的な概略図である。 本出願のある実施形態による、ゼロ動きベクトルを併合モード候補リストに追加することの例示的な概略図である。 本出願のある実施形態による、ピクチャブロックの動き情報を予測するための装置の概略ブロック図である。 本出願のある実施形態による、符号化デバイスまたは復号デバイスの概略ブロック図である。 本出願のある実施形態による、符号化および復号の性能の利得の概略図である。
以下は、本出願の実施形態の添付の図面を参照して、本出願の実施形態の技術的解決策を明確かつ完全に説明する。
図1は、本出願のある実施形態による、ビデオ符号化および復号システム10の概略ブロック図である。図1に示されるように、システム10はソース装置12を含み、ソース装置12は、宛先装置14によって復号されるべきコーディングされたビデオデータを生成する。ソース装置12および宛先装置14は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、「スマート」フォンなどの携帯電話、「スマート」タッチパネル、テレビジョン、カメラ、表示装置、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミング送信装置などを含む、広範囲の装置のうちの任意の1つを含み得る。いくつかの応用では、ソース装置12および宛先装置14は、ワイヤレス通信に対応し得る。
宛先装置14は、リンク16を通じて、復号されるべきコーディングされたビデオデータを受信し得る。リンク16は、ソース装置12から宛先装置14にコーディングされたビデオデータを送信することが可能な、任意のタイプの媒体または装置を含み得る。実現可能な実装形態では、リンク16は、ソース装置12がコーディングされたビデオデータをリアルタイムで宛先装置14に直接送信することを可能にする、通信媒体を含み得る。コーディングされたビデオデータは、通信規格(たとえば、ワイヤレス通信プロトコル)に従って変調され、宛先装置14に送信され得る。通信媒体は、任意のワイヤレスまたは有線通信媒体、たとえば、高周波スペクトルまたは1つまたは複数の物理送信ケーブルを含み得る。通信媒体は、パケットベースネットワーク(たとえば、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのグローバルネットワーク)の一部であり得る。通信媒体は、ルータ、スイッチ、基地局、または、ソース装置12から宛先装置14への通信を容易にする任意の他のデバイスを含み得る。
代替として、コーディングされたデータは、出力インターフェース22を通じて記憶装置24に出力され得る。同様に、コーディングされたデータは、入力インターフェースを通じて記憶装置24からアクセスされ得る。記憶装置24は、複数の分散したデータ記憶媒体またはローカルアクセスデータ記憶媒体、たとえば、ハードディスクドライブ、Blu-ray(登録商標)ディスク、DVD、CD-ROM、フラッシュメモリ、揮発性メモリもしくは不揮発性メモリ、または、コーディングされたビデオデータを記憶するように構成される任意の他の適切なデータ記憶媒体のうちの任意の1つを含み得る。別の実現可能な実装形態では、記憶装置24は、ソース装置12によって生成されるコーディングされたビデオを記憶することが可能な、ファイルサーバまたは別の中間記憶装置に対応し得る。宛先装置14は、ストリーミング送信またはダウンロードを通じて、記憶装置24からの記憶されているビデオデータにアクセスし得る。ファイルサーバは、コーディングされたビデオデータを記憶し、コーディングされたビデオデータを宛先装置14に送信することが可能な任意のタイプのサーバであり得る。実現可能な実装形態では、ファイルサーバは、ウェブサーバ、ファイル転送プロトコルサーバ、ネットワークアタッチトストレージ装置、またはローカルディスクドライブを含む。宛先装置14は、インターネット接続を含む任意の標準的なデータ接続を通じて、コーディングされたビデオデータにアクセスし得る。データ接続は、ファイルサーバに記憶されているコーディングされたビデオデータにアクセスするのに適した、ワイヤレスチャネル(たとえば、Wi-Fi接続)、有線接続(たとえば、ケーブルモデム)、またはこれらの組合せを含み得る。記憶装置24からのコーディングされたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはこれらの組合せであり得る。
本出願の技術は、ワイヤレスの応用または設定に必ずしも限定されない。これらの技術は、複数のマルチメディアの応用、たとえば、over-the-airテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、ストリーミングビデオ送信(たとえば、インターネットを通じた)、データ記憶媒体に記憶するためのデジタルビデオ符号化、データ記憶媒体に記憶されているデジタルビデオの復号、または他の応用のうちの任意の1つをサポートするために、ビデオ復号に適用され得る。いくつかの可能な実装形態では、システム10は、ストリーミングビデオ送信、ビデオ再生、ビデオ放送、および/またはビデオ電話などの応用をサポートするために、単方向または双方向のビデオ送信をサポートするように構成され得る。
図1の実現可能な実装形態では、ソース装置12は、ビデオソース18、ビデオエンコーダ20、および出力インターフェース22を含み得る。いくつかの応用では、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含み得る。ソース装置12において、ビデオソース18は、たとえば、ビデオキャプチャ装置(たとえば、ビデオカメラ)、以前にキャプチャされたビデオを含むビデオアーカイブ、ビデオコンテンツ提供者からビデオを受信するためのビデオフィードインインターフェース、および/もしくはコンピュータグラフィクスデータをソースビデオとして生成するためのコンピュータグラフィクスシステムのソース、またはこれらのソースの組合せを含む。実現可能な実装形態では、ビデオソース18がビデオカメラである場合、ソース装置12および宛先装置14は、カメラ電話またはビデオ電話を構成し得る。本出願において説明される技術は、たとえば、ビデオ復号に適用されてもよく、ワイヤレスおよび/または有線の応用に適用されてもよい。
ビデオエンコーダ20は、コンピュータによってキャプチャされる、プリキャプチャされる、または生成される、ビデオを符号化し得る。コーディングされたビデオデータは、ソース装置12の出力インターフェース22を通じて宛先装置14へ直接送信され得る。コーディングされたビデオデータは、宛先装置14による後のアクセスのために記憶装置24に、または復号および/もしくは再生のための別の装置にも(または代替としてそれらに)記憶され得る。
宛先装置14は、入力インターフェース28、ビデオデコーダ30、および表示装置32を含む。いくつかの応用では、入力インターフェース28は、受信機および/またはモデムを含み得る。宛先装置14の入力インターフェース28は、リンク16を通じてコーディングされたビデオデータを受信する。リンク16を通じて記憶装置24に送信または提供されるコーディングされたビデオデータは、ビデオデコーダ30がビデオデータを復号するためにビデオエンコーダ20によって生成される複数のシンタックス要素を含み得る。これらのシンタックス要素は、記憶媒体に記憶された、またはファイルサーバに記憶された、通信媒体上で送信されるコーディングされたビデオデータとともに含まれ得る。
表示装置32は、宛先装置14と統合され、または宛先装置14の外側に配設され得る。いくつかの可能な実装形態では、宛先装置14は、統合された表示装置を含み、外部表示装置のインターフェースと接続するようにも構成され得る。別の実現可能な実装形態では、宛先装置14は表示装置であり得る。通常、表示装置32は、復号されたビデオデータをユーザに表示し、複数の表示装置、たとえば、液晶ディスプレイ、プラズマディスプレイ、有機発光ダイオードディスプレイ、または別のタイプの表示装置のうちの任意の1つを含み得る。
ビデオエンコーダ20およびビデオデコーダ30は、たとえば、現在開発中の次世代ビデオ符号化および復号圧縮規格(H.266)に従って動作することができ、H.266テストモデル(JEM)に準拠し得る。代替として、ビデオエンコーダ20およびビデオデコーダ30は、高効率ビデオ復号規格とも称されるITU-TH.265規格、または、ITU-TH.264規格の別の専用もしくは業界規格、またはこれらの規格の拡張に従って動作し得る。代替として、ITU-TH.264規格は、MPEG-4 Part 10、または高度ビデオコーディング(advanced video coding, AVC)と称される。しかしながら、本出願の技術は、どのような特定の復号規格にも限定されない。ビデオ圧縮規格の他の実現可能な実装形態は、MPEG-2およびITU-T H.263を含む。
図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、オーディオエンコーダおよびオーディオデコーダとそれぞれ統合されてもよく、各々が、共通のビットストリームまたは別個のビットストリームにおいてオーディオとビデオの両方を符号化するための、適切なマルチプレクサ-デマルチプレクサ(MUX-DEMUX)ユニットまたは他のハードウェアおよびソフトウェアを含んでもよい。適用可能な場合、いくつかの実現可能な実装形態では、MUX-DEMUXユニットは、ITU H.223マルチプレクサプロトコルまたはユーザデータグラムプロトコル(UDP)などの別のプロトコルに準拠し得る。
ビデオエンコーダ20およびビデオデコーダ30は、複数の適切なエンコーダ回路、たとえば、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理回路、ソフトウェア、ハードウェア、ファームウェア、またはこれらの任意の組合せのうちの、任意の1つとして実装され得る。技術がソフトウェアによって部分的に実装されるとき、装置は、適切な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、本出願の技術を実施するために、1つまたは複数のプロセッサを使用することによってハードウェアの形式で命令を実行し得る。ビデオエンコーダ20およびビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダに含まれてもよく、ビデオエンコーダ20またはビデオデコーダ30のいずれかが、合成エンコーダ/デコーダ(CODEC)の一部として対応する装置に統合されてもよい。
本出願では、たとえば、ビデオエンコーダ20は、ビデオデコーダ30などの別の装置に特定の情報を「シグナリング」し得る。しかしながら、ビデオエンコーダ20は、情報をシグナリングするために、特定のシンタックス要素をビデオデータの様々なコーディングされた部分と関連付け得ることが理解されるべきである。言い換えると、ビデオエンコーダ20は、データを「シグナリング」するために、ビデオデータの様々なコーディングされた部分のヘッダ情報に特定のシンタックス要素を記憶し得る。いくつかの応用では、シンタックス要素は、ビデオデコーダ30によって受信され復号される前に、符号化され記憶され得る(たとえば、記憶システム34またはファイルサーバ36に記憶され得る)。したがって、「信号」という用語は、たとえば、送信がリアルタイムで実行されるか、ほぼリアルタイムで実行されるか、またはある期間内に実行されるかにかかわらず、圧縮されたビデオデータを復号するために使用されるシンタックスデータまたは他のデータの送信を意味し得る。たとえば、シンタックス要素が符号化の間に媒体に記憶されるとき、送信が実行されてもよく、次いで、媒体に記憶された後の任意の時間に、シンタックス要素が復号装置によって取り出されてもよい。
JCT-VCはH.265(HEVC)規格を開発した。HEVCの規格化は、HEVCテストモデル(HM)と称されるビデオ復号装置の進化したモデルに基づく。最新のH.265規格文書は、http://www.itu.int/rec/T-REC-H.265において入手可能である。規格文書の最新版はH.265(12/16)であり、これは全体が参照によって本明細書に組み込まれる。HMは、ITU-TH.264/AVCの既存のアルゴリズムと比較していくつかの追加の能力をビデオ復号装置が有することを想定する。たとえば、H.264は9個のイントラ予測コーディングモードを提供するが、HMは最大で35個のイントラ予測コーディングモードを提供することができる。
JVETは、H.266規格を開発することに尽力している。H.266の規格化の過程は、H.266テストモデルと称されるビデオ復号装置の進化したモデルに基づく。H.266アルゴリズムの説明はhttp://phenix.int-evry.fr/jvetにおいて入手可能であり、最新のアルゴリズムの説明はJVET-F1001-v2に含まれる。このアルゴリズム説明の文書は、全体が参照によって本明細書に組み込まれる。加えて、JEMテストモデルのための参照ソフトウェアはhttps://jvet.hhi.fraunhofer.de/svn/svn_HMJEMSoftware/において入手可能であり、これも全体が参照によって本明細書に組み込まれる。
通常、HMワーキングモデルの説明では、ビデオフレームまたはピクチャは、輝度サンプルと色差サンプルの両方を含むツリーブロックまたは最大コーディング単位(largest coding unit, LCU)の列へと分割されてもよく、LCUはCTUとも称される。ツリーブロックは、H.264規格におけるマクロブロックと同様の目的を有する。スライスは、いくつかの連続するツリーブロックを復号順序で含む。ビデオフレームまたはピクチャは、1つまたは複数のスライスへと区分され得る。各ツリーブロックは、四分木に基づいてコーディング単位へと分割され得る。たとえば、四分木のルートノードとして働くツリーブロックは、4つの子ノードへと分割されてもよく、各子ノードは、親ノードとして働き、4つの他の子ノードへと分割されてもよい。四分木のリーフノードとして働く最終的な分割不可能な子ノードは、復号ノード、たとえば復号されたビデオブロックを含む。復号されたビットストリームと関連付けられるシンタックスデータは、ツリーブロックの最大の分割可能な回数を定義することができ、復号ノードの最小サイズも定義することができる。
コーディング単位は、復号ノード、予測単位(prediction unit, PU)、および復号ノードと関連付けられる変換単位(transform unit, TU)を含む。CUは、復号ノードのサイズに対応するサイズを有し、正方形の形状を有する必要がある。CUのサイズは、8x8ピクセルから、64x64ピクセルまたはそれよりも大きいツリーブロックサイズにわたり得る。各CUは、1つまたは複数のPUおよび1つまたは複数のTUを含み得る。たとえば、CUと関連付けられるシンタックスデータは、1つまたは複数のPUへのCUの区分を記述し得る。区分モードは、CUがスキップされるときと、または直接モード、イントラ予測モード、もしくはインター予測モードでコーディングされるときとで、変化することがある。PUは、区分された後は正方形ではない形状を有し得る。たとえば、CUと関連付けられるシンタックスデータは、四分木に基づく1つまたは複数のTUへのCUの区分を記述し得る。TUは正方形または非正方形の形状を有し得る。
HEVC規格はTUベースの変換を許容し、TUは異なるCUに対して異なり得る。TUのサイズは、区分されたLCUのために定義される所与のCU内のPUのサイズに基づいて、普通は設定される。しかしながら、常にこのようであるとは限らない。TUのサイズは、普通はPUのサイズと同じであるか、それよりも小さい。いくつかの実現可能な実装形態では、「残差四分木」(residual qualtree, RQT)と称される四分木構造が、CUに対応する残差サンプルをより小さい単位へと分割するために使用され得る。RQTのリーフノードはTUと称され得る。TUと関連付けられるピクセル差分は、変換係数を生成するために変換されてもよく、変換係数は量子化されてもよい。
普通は、PUは区分処理に関するデータを含む。たとえば、PUがイントラモードで符号化されるとき、PUは、PUのイントラ予測モードを記述するデータを含み得る。別の実現可能な実装形態では、PUがインターモードで符号化されるとき、PUは、PUのための動きベクトルを定義するデータを含み得る。たとえば、PUのための動きベクトルを定義するデータは、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの分解能(たとえば、4分の1ピクセル精度または8分の1ピクセル精度)、動きベクトルが指す参照ピクチャ、および/または動きベクトル参照ピクチャリスト(たとえば、リスト0、リスト1、またはリストC)を記述し得る。
普通は、TUが変換および量子化処理を実行する。1つまたは複数のPUを有する所与のCUは、1つまたは複数のTUも含み得る。予測の後で、ビデオエンコーダ20は、PUに対応する残差値を計算し得る。残差値はピクセル差分を含み、ピクセル差分は変換係数へと変換されてもよく、変換係数は量子化され、エントロピー復号のための直列化された変換係数を生成するためにTU走査を受ける。本出願では、「ビデオブロック」という用語は、CUの復号ノードを示すために普通は使用される。いくつかの特定の応用では、本出願において、「ビデオブロック」という用語は、復号ノード、PU、およびTU、たとえばLCUまたはCUを含むツリーブロックを示すためにも使用され得る。
ビデオシーケンスは、一連のビデオフレームまたはピクチャを普通は含む。たとえば、ピクチャグループ(group of pictures, GOP)は、一連のビデオピクチャ、および1つまたは複数のビデオピクチャを含む。GOPは、GOPのヘッダ情報、ピクチャの1つまたは複数のヘッダ情報、または他の箇所にシンタックスデータを含んでもよく、シンタックスデータはGOPに含まれるピクチャの量を記述する。ピクチャの各スライスは、対応するピクチャの符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は、ビデオデータを符号化するために、普通はビデオスライスの中のビデオブロックに対して操作を実行する。ビデオブロックは、CUの中の復号ノードに対応し得る。ビデオブロックのサイズは、固定されていても、または可変であってもよく、指定された復号規格に従って変化してもよい。
実現可能な実装形態では、HMは種々のPUサイズのための予測をサポートする。特定のCUのサイズは2Nx2Nであり、HMは2Nx2NまたはNxNのPUサイズに対するイントラ予測と、2Nx2N、2NxN、Nx2N、またはNxNの対称的なPUサイズに対するインター予測をサポートすると仮定する。HMは、2NxnU、2NxnD、nLx2N、およびnRx2NなどのPUサイズに対するインター予測のための非対称的な区分もサポートする。非対称的な区分において、CUは、一方の方向に区分されず、他方の方向に25%および75%へと区分される。25%の区分に対応するCUの部分は、後に「U(Up)」、「D(Down)」、「L(Left)」、または「R(Right)」が続く「n」を含むインジケータによって示される。したがって、たとえば、「2NxnU」は、上部に2Nx0.5NのPUおよび下部に2Nx1.5NのPUができるように、水平に区分される2Nx2NのCUを指す。
本出願では、「NxN」および「N掛けるN」、たとえば、16x16ピクセルまたは16掛ける16ピクセルが、垂直方向の寸法および水平方向の寸法でビデオブロックのピクセルサイズを示すために交換可能に使用され得る。通常、16x16ブロックは、垂直方向の16個のピクセル(y=16)と、水平方向の16個のピクセル(x=16)とを有する。同様に、NxNブロックは垂直方向にNピクセルを有し、水平方向にNピクセルを有し、Nは非負の整数を示す。ブロックの中のピクセルは、行および列に並べられ得る。加えて、ブロックにおいて、水平方向のピクセルの量および垂直方向のピクセルの量は、同じである必要はないことがある。たとえば、ブロックはNxMピクセルを含むことがあり、Mは必ずしもNに等しくない。
CUの中のPUに対するイントラ予測復号またはインター予測復号の後で、ビデオエンコーダ20は、CUの中のTUの残差データを計算し得る。PUは空間領域(ピクセル領域とも称される)にピクセルデータを含むことがあり、TUは、変換(たとえば、離散コサイン変換(discrete cosine transform, DCT)、整数変換、ウェーブレット変換、または他の概念的に同様の変換)が残差ビデオデータに適用された後の、変換領域における係数を含むことがある。残差データは、コーディングされないピクチャのピクセルと、PUに対応する予測子との間の、ピクセル差分に対応し得る。ビデオエンコーダ20は、CUの残差データを含むTUを生成し、次いでTUを変換してCUの変換係数を生成し得る。
変換係数を生成するための任意の変換を実行した後で、ビデオエンコーダ20は、変換係数を量子化し得る。量子化は、たとえば、係数を表すために使用されるデータの量を減らし、さらなる圧縮を実施するための、係数を量子化する処理である。量子化処理は、係数の一部またはすべてと関連付けられるビット深度を低減することができる。たとえば、量子化の間、nビットの値がmビットの値へと低減されてもよく、nはmよりも大きい。
JEMモデルは、ビデオピクチャコーディング構造をさらに改善する。具体的には、「四分木プラス二分木」(QTBT)と称されるブロックコーディング構造が導入される。HEVCにおけるCU、PU、およびTUなどの概念を使用することなく、QTBT構造は、より柔軟に区分されるCU形状をサポートする。1つのCUは、正方形または長方形の形状を有し得る。四分木区分はまず、1つのCTUに対して実行され、二分木区分は、四分木のリーフノードに対してさらに実行される。加えて、対称的な水平方向の区分および対称的な垂直方向の区分という、2つの二分木区分モードがある。二分木のリーフノードはCUと称される。JEMモデルにおけるCUは、予測および変換の間にさらに区分できない。言い換えると、JEMモデルにおけるCU、PU、およびTUは、同じブロックサイズを有する。現段階のJEMモデルでは、CTUの最大サイズは256x256輝度ピクセルである。
いくつかの実現可能な実装形態では、ビデオエンコーダ20は、エントロピーコーディングされ得る直列化されたベクトルを生成するために、量子化された変換係数をあらかじめ定められた走査順序で走査し得る。いくつかの他の実現可能な実装形態では、ビデオエンコーダ20は適応走査を実行し得る。1次元ベクトルを形成するために量子化された変換係数を走査した後で、ビデオエンコーダ20は、コンテキスト適応可変長コーディング(CAVLC)、コンテキスト適応バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディング、または別のエントロピーコーディング方法を通じて、1次元ベクトルをエントロピー復号し得る。ビデオエンコーダ20は、ビデオデータを復号するために、ビデオデコーダ30のためのコーディングされたビデオデータと関連付けられるシンタックス要素をさらにエントロピーコーディングし得る。
CABACを実行するために、ビデオエンコーダ20は、コンテキストモデルの中のコンテキストを、送信されるべきシンボルに割り当て得る。コンテキストは、シンボルの隣接する値が0ではないかどうかに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルの可変長コードを選択し得る。可変長コード(VLC)の中の符号語は、より短いコードがより確率の高いシンボルに対応し、より長いコードがより確率の低いシンボルに対応するように、構築され得る。このようにして、すべての送信されるべきシンボルに対して等しい長さの符号語を使用することと比較して、VLCの使用はビットレートを低減することができる。CABACにおける確率は、シンボルに割り当てられるコンテキストに基づいて決定され得る。
本出願のこの実施形態では、ビデオエンコーダは、ピクチャ間の時間的な冗長性を減らすためにインター予測を実行し得る。上で説明されたように、CUは、異なるビデオ圧縮コーディング規格および復号規格の規定に応じて、1つまたは複数の予測単位PUを有し得る。言い換えると、複数のPUがCUに属することがあり、またはPUおよびCUが同じサイズを有する。本明細書では、PUおよびCUが同じサイズを有するとき、CUの区分モードは区分なしであり、またはCUは1つのPUへと区分され、PUは記述のために一律に使用される。ビデオエンコーダがインター予測を実行するとき、ビデオエンコーダは、ビデオデコーダにPUのための動き情報をシグナリングし得る。たとえば、PUのための動き情報は、参照ピクチャインデックス、動きベクトル、および予測方向識別子を含み得る。動きベクトルは、PUのピクチャブロック(ビデオブロック、ピクセルブロック、ピクセルセットなどとも称される)とPUの参照ブロックとの間のずれを示し得る。PUの参照ブロックは、PUに対応するピクチャブロックの参照ブロックと同様の部分であり得る。参照ブロックは、参照ピクチャインデックスおよび予測方向識別子によって示される参照ピクチャに位置し得る。
PUのための動き情報を表すために必要なコーディングされたビットの量を減らすために、ビデオエンコーダは、併合予測モードまたは高度動きベクトル予測モードでの処理に基づいて、各PUのための動き情報候補リスト(以下で候補リストと称される)を生成し得る。PUのための候補リストの中の各候補は、動き情報の1つのグループを示し得る。動き情報は、動きベクトルMVおよび参照ピクチャ指示情報を含み得る。当然、動き情報は、動きベクトルMVと参照ピクチャ指示情報の一方または両方を代替として含み得る。たとえば、エンコーダ側とデコーダ側がともに参照ピクチャについて合意するとき、動き情報は動きベクトルMVのみを含み得る。候補リストの中のいくつかの候補によって示される動き情報は、他のPUのための動き情報に基づき得る。指定された空間位置候補(spatial candidate positions)または時間位置候補(temporal candidate positions)のうちの1つの動き情報を候補が示す場合、この候補は、本出願では「オリジナル」動き情報候補と称され得る。たとえば、本明細書で併合予測モードとも称される併合モードでは、5つのオリジナル空間位置候補および1つのオリジナル時間位置候補があり得る。いくつかの例では、ビデオエンコーダは、何らかの手段を使用することによって、追加のまたは余剰の動き情報候補をさらに生成し得る。たとえば、余剰の動き情報候補を生成するために、ゼロ動きベクトルが動き情報候補として挿入される。余剰動き情報候補は、オリジナル動き情報候補と見なされず、本出願では、後でまたは人工的に生成される動き情報候補と称されることがある。
本明細書の技術は、ビデオエンコーダ上で候補リストを生成するための技術と、ビデオデコーダ上で同じ候補リストを生成するための技術とを、普通は含む。ビデオエンコーダおよびビデオデコーダは、候補リストを構築するための同じ技術を実装することによって、同じ候補リストを生成し得る。たとえば、ビデオエンコーダとビデオデコーダの両方が、同じ量の候補(たとえば、5つの候補)を含むリストを構築し得る。ビデオエンコーダおよびビデオデコーダは、まず空間候補(たとえば、同じピクチャの中の隣接ブロック)を、次いで時間候補(たとえば、異なるピクチャの中の候補)を考慮し、最後に、予想される量の候補がリストに追加されるまで人工的に生成された候補を考慮することができる。本出願の技術によれば、候補リスト構築の間、候補リストから繰り返される動き情報候補を除去するために、特定のタイプの動き情報候補に対して、取り除き操作が実行され得るが、取り除き操作は、デコーダの複雑さを下げるために、他のタイプの候補に対しては実行されなくてもよい。たとえば、空間候補のセットおよび時間候補に対して、候補リストから繰り返される動き情報を伴う候補を除外するために、取り除き操作が実行され得る。
CUのPUのための候補リストを生成した後で、ビデオエンコーダは、候補リストから動き情報候補を選択し、ビットストリームにおいて、選択された動き情報候補を示すインデックス識別子を出力し得る。選択された動き情報候補は、復号されているPUと最もよく一致する予測ブロックの動き情報であり得る。インデックス識別子は、候補リストから選択される動き情報候補の位置を示し得る。ビデオエンコーダは、PUのための動き情報によって示される参照ブロックに基づいて、PUのために使用される予測ブロックをさらに生成し得る。PUのための動き情報は、選択された動き情報候補に基づいて決定され得る。たとえば、併合モードにおいて、選択された動き情報候補がPUのための動き情報であることが決定される。AMVPモードでは、PUのための動き情報は、PUのための動きベクトル差分および選択された動き情報候補に基づいて決定され得る。ビデオエンコーダは、CUのPUのための予測ピクチャブロック(予測ブロックと称される)およびCUのためのオリジナルピクチャブロックに基づいて、CUのための1つまたは複数の残差ピクチャブロック(残差ブロックと称される)を生成し得る。次いで、ビデオエンコーダは、1つまたは複数の残差ブロックを符号化し、ビットストリームを出力し得る。
ビットストリームは、PUのための候補リストから選択される動き情報候補を特定するために使用されるデータを含み得る。ビデオデコーダは、PUのための候補リストから選択された動き情報候補に基づいて、PUのための動き情報を決定し得る。ビデオデコーダは、PUのための動き情報に基づいて、PUのための1つまたは複数の参照ブロックを特定し得る。PUのための1つまたは複数の参照ブロックを特定した後で、ビデオデコーダは、PUのための1つまたは複数の参照ブロックに基づいて、PUのための予測ブロックを生成し得る。ビデオデコーダは、CUのPUのための予測ブロックおよびCUのための1つまたは複数の残差ピクチャブロックに基づいて、CUのためのピクチャブロックを再構築し得る。
説明を簡単にするために、本出願では、位置またはピクチャブロックは、CUまたはPUとの様々な空間的な関係を有するものとして記述され得る。そのような記述は、位置またはピクチャブロックが、CUまたはPUと関連付けられるピクチャブロックとの様々な空間的な関係を有するものとして解釈され得る。加えて、本出願では、ビデオデコーダによって復号されているPUは、現在のPUと称されることがあり、現在の処理されるべきピクチャブロックとも称されることがある。ビデオデコーダによって復号されているCUは、現在のCUと称されることがある。ビデオデコーダによって復号されているピクチャは、現在のピクチャと称されることがある。本出願は、PUおよびCUが同じサイズを有する場合、またはPUがCUであり、PUとCUがPUによって一律に表される場合に適用可能であることが理解されるべきである。
上で簡単に説明されたように、ビデオエンコーダ20は、CUのPUのために使用される予測ブロックおよび動き情報を生成するために、インター予測を使用し得る。いくつかの例では、PUのための動き情報は、1つまたは複数の隣接PU(たとえば、そのピクチャブロックがPUに対応するピクチャブロックに空間的にまたは時間的に隣接しているPU)のための動き情報と同じであり、または同様であり得る。隣接PUはしばしば同様の動き情報を有するので、ビデオエンコーダ20は、隣接PUのための動き情報に基づいて、PUのための動き情報を符号化し得る。隣接PUのための動き情報に基づくPUのための動き情報のコーディングは、PUのための動き情報を示すためのビットストリームにおいて必要とされるコーディングされたビットの量を減らし得る。
ビデオエンコーダ20は、様々な方式で、隣接PUのための動き情報に基づいてPUのための動き情報を符号化し得る。たとえば、ビデオエンコーダ20は、PUのための動き情報が隣接PUのための動き情報と同じであることを示し得る。本出願では、PUのための動き情報が隣接PUのための動き情報と同じであること、またはそれから導出され得ることを示すために、併合モードが使用され得る。別の実現可能な実装形態では、ビデオエンコーダ20は、PUのための動きベクトル差分(Motion Vector Difference, MVD)を計算し得る。MVDは、PUのための動きベクトルと隣接PUのための動きベクトルとの間の差分を示す。ビデオエンコーダ20は、PUのための動き情報に、PUのための動きベクトルの代わりにMVDを含め得る。ビットストリームにおいて、MVDを表すために必要とされるコーディングされたビットは、PUのための動きベクトルを表すために必要とされるコーディングされたビットよりも少ない。本出願では、MVDと候補を特定するためのインデックス値(すなわち、動き情報候補)とを使用することによって、PUのための動き情報をデコーダ側が通知されることを示すために、高度動きベクトル予測モードが使用され得る。
併合モードまたはAMVPモードにおいて、PUのための動き情報をデコーダ側にシグナリングするために、ビデオエンコーダ20は、PUのために使用される候補リストを生成し得る。候補リストは、1つまたは複数の候補(すなわち、動き情報候補の1つまたは複数のグループ)を含み得る。PUのための候補リストの中の各候補は、動き情報の1つのグループを示す。動き情報の1つのグループは、動きベクトルと、参照ピクチャリストと、参照ピクチャリストに対応する参照ピクチャインデックスとを含み得る。
PUのための候補リストを生成した後で、ビデオエンコーダ20は、PUのための候補リストから複数の候補のうちの1つを選択し得る。たとえば、ビデオエンコーダは、各候補を復号されているPUと比較することができ、必要とされるレートひずみコストを有する候補を選択することができる。ビデオエンコーダ20は、PUのための候補インデックスを出力し得る。候補インデックスは、候補リストにおける選択された候補の位置を特定し得る。
加えて、ビデオエンコーダ20は、PUのための動き情報によって示される参照ブロックに基づいて、PUのための予測ブロックを生成し得る。PUのための動き情報は、PUのための候補リストから選択された動き情報候補に基づいて決定され得る。
ビデオデコーダ30がビットストリームを受信すると、ビデオデコーダ30は、CUのPUの各々のための候補リストを生成し得る。PUのためのビデオデコーダ30によって生成される候補リストは、PUのためのビデオエンコーダ20によって生成される候補リストと同じであり得る。ビットストリームを解析するために取得されるシンタックス要素は、PUのための候補リストから選択される動き情報候補の位置を示し得る。PUのための候補リストを生成した後で、ビデオエンコーダ30は、PUのための動き情報によって示される1つまたは複数の参照ブロックに基づいて、PUのための予測ブロックを生成し得る。ビデオデコーダ30は、PUのための候補リストから選択された動き情報候補に基づいて、PUのための動き情報を決定し得る。ビデオデコーダ30は、PUのための予測ブロックおよびCUのための残差ブロックに基づいて、CUのためのピクチャブロックを再構築し得る。
実現可能な実装形態では、デコーダ側において、候補リストの構築は、候補リストの中の選択された候補の位置を取得するためにビットストリームを解析することとは独立であり、任意の順序で、または並列に実行され得ることが理解されるべきである。
別の実現可能な実装形態では、デコーダ側において、候補リストにおける選択された候補の位置を取得するために、ビットストリームがまず解析され、解析を通じて取得された位置に基づいて、候補リストが構築される。この実装形態では、候補リスト全体を構築することは必須ではなく、具体的には、解析を通じて取得された位置における候補を決定できる限り、その位置において終了する候補リストのみが構築される必要がある。たとえば、ビットストリームを解析することによって、選択される候補が、そのインデックス識別子が候補リストにおいて3である候補であることが得られるとき、インデックス識別子0から3の候補リストのみが構築される必要があり、そのインデックス識別子が3である候補が決定され得る。このことは、複雑さを下げて復号効率を高めるという技術的な効果を達成することができる。
図2は、本出願のある実施形態による、ビデオエンコーダ20の概略ブロック図である。ビデオエンコーダ20は、ビデオスライスの中のビデオブロックに対してイントラ復号およびインター復号を実行し得る。イントラ復号は、所与のビデオフレームまたはピクチャの中のビデオの空間的な冗長性を低減または除去するために、空間予測に依拠する。インターフレーム復号は、ビデオシーケンスの隣接フレームまたはピクチャの中のビデオの時間的な冗長性を低減または除去するために、時間予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースの圧縮モードのうちの任意の1つであり得る。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースの圧縮方法のうちの任意の1つであり得る。
図2の実現可能な実装形態では、ビデオエンコーダ20は、区分ユニット35、予測ユニット41、参照ピクチャメモリ64、加算器50、変換処理ユニット52、量子化ユニット54、およびエントロピー符号化ユニット56を含む。予測ユニット41は、インター予測ユニット(図示されない)およびイントラ予測ユニット46を含む。インター予測ユニットは、動き推定ユニット42および動き補償ユニット44を含み得る。ビデオブロックの再構築のために、ビデオエンコーダ20は、逆量子化ユニット58、逆変換ユニット60、および加算器(再構築器とも称される)62をさらに含み得る。ビデオエンコーダ20は、ブロック境界をフィルタリングし、再構築されたビデオからブロッキングアーティファクトを除去するために、デブロッキングフィルタ(図2に示されない)をさらに含み得る。必要なとき、デブロッキングフィルタは、普通は加算器62の出力をフィルタリングする。デブロッキングフィルタに加えて、追加のループフィルタ(ループ内またはループ後)がさらに使用され得る。
図2に示されるように、ビデオエンコーダ20はビデオデータを受信し、区分ユニット35はデータをビデオブロックへと区分する。そのような区分は、スライス、ピクチャブロック、または他の比較的大きい単位への区分、ならびに(たとえば)LCUおよびCUの四分木構造に基づくビデオブロック区分をさらに含み得る。たとえば、ビデオエンコーダ20に対して、コーディングされるべきビデオスライスの中のビデオブロックを符号化するための構成要素が説明される。普通は、1つのスライスが複数のビデオブロックへと区分され得る(ピクチャブロックと称されるビデオブロックのセットへと区分され得る)。
予測ユニット41は、符号化品質およびコスト計算結果(たとえば、レートひずみコスト、RD cost)に基づいて、現在のビデオブロックの、複数の可能な復号モードのうちの1つ、たとえば、複数のイントラ復号モードのうちの1つまたは複数のインター復号モードのうちの1つを選択し得る。予測ユニット41は、残差ブロックデータを生成するためにイントラ復号またはインター復号されたブロックを加算器50に提供し、コーディングされたブロックを再構築して再構築されたコーディングされたブロックを参照ピクチャとして使用するためにイントラ復号またはインター復号されたブロックを加算器62に提供し得る。
予測ユニット41の中のインター予測ユニット(動き推定ユニット42および動き補償ユニット44など)は、時間圧縮をもたらすために、1つまたは複数の参照ピクチャの1つまたは複数の予測ブロックに対する、現在のビデオブロックのインター予測復号を実行する。動き推定ユニット42は、ビデオシーケンスのあらかじめ設定されたモードに基づいて、ビデオスライスのためのインター予測モードを決定するように構成される。あらかじめ設定されたモードでは、シーケンスの中のビデオスライスは、Pスライス、Bスライス、またはGPBスライスとして指定され得る。動き推定ユニット42および動き補償ユニット44は、高度に統合されてもよく、概念の理解を簡単にするために本明細書では別々に記述される。動き推定ユニット42は、ビデオブロック(ピクチャブロックとも称される)の動きベクトルを推定する処理を生成するために、動き推定を実行する。たとえば、動きベクトルは、参照ピクチャの中の予測ブロックに対する、現在のビデオフレームまたはピクチャの中のビデオブロックのPUのずれを示し得る。
予測ブロックは、ピクセル差分に基づいて、復号されるべきビデオブロックとよく一致することが見出されるPUの中のブロックであり、ピクセル差分は、差分絶対値和(SAD)、差分二乗和(SSD)、または他の差分尺度に基づいて決定され得る。いくつかの実現可能な実装形態では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶されている参照ピクチャのサブ整数(sub-integer)ピクセル位置の値を計算し得る。たとえば、ビデオエンコーダ20は、4分の1ピクセル位置、8分の1ピクセル位置、または参照ピクチャの別の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット42は、フルピクセル位置および分数ピクセル位置に関して動き探索を実行し、分数ピクセル精度で動きベクトルを出力し得る。
動き推定ユニット42は、PUの位置を参照ピクチャの中の予測ブロックの位置と比較することによって、インター復号されたスライスの中のビデオブロックのPUのための動きベクトルを計算する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得る。各リストは、参照ピクチャメモリ64に記憶されている1つまたは複数の参照ピクチャを特定する。動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56および動き補償ユニット44に送信する。
動き補償ユニット44によって実行される動き補償は、動き推定を通じて決定される動きベクトルに基づく予測ブロックの抽出または生成を含み得る。現在のビデオブロックのPUのための動きベクトルを受信した後で、動き補償ユニット44は、参照ピクチャリストの1つにおいて、動きベクトルによって指し示される予測ブロックを位置付け得る。ビデオエンコーダ20は、残差ビデオブロックを取得するために、およびピクセル差分を取得するために、復号されている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を差し引く。ピクセル差分は、ブロック残差データを形成し、輝度差分成分および色差差分成分を含み得る。加算器50は、減算演算を実行する1つまたは複数の構成要素である。動き補償ユニット44は、ビデオスライスの中のビデオブロックを復号するために、ビデオデコーダ30のためのビデオブロックおよびビデオスライスと関連付けられるシンタックス要素をさらに生成し得る。
PUがBスライスの中にある場合、PUを含むピクチャは、「リスト0」および「リスト1」と称される2つの参照ピクチャリストと関連付けられ得る。いくつかの実現可能な実装形態では、Bスライスを含むピクチャは、リスト0とリスト1というリストの組合せと関連付けられ得る。
加えて、PUがBスライスの中にある場合、動き推定ユニット42は、PUのための単方向予測または双方向予測を実行し得る。いくつかの実現可能な実装形態では、双方向予測は、リスト0およびリスト1という、参照ピクチャリストの中のピクチャに基づいてそれぞれ実行される予測である。いくつかの他の実現可能な実装形態では、双方向予測は、表示順序にある現在のフレームの再構築された未来のフレームおよび再構築された過去のフレームに基づいてそれぞれ実行される予測である。動き推定ユニット42がPUのための単方向予測を実行するとき、動き推定ユニット42は、PUのための参照ブロックを求めて、リスト0およびリスト1の中の参照ピクチャを探し得る。次いで、動き推定ユニット42は、リスト0またはリスト1の中の参照ブロックを含む参照ピクチャを示す参照フレームインデックスと、PUと参照ブロックとの間の空間的なずれを示す動きベクトルとを生成し得る。動き推定ユニット42は、参照フレームインデックス、予測方向識別子、および動きベクトルを、PUのための動き情報として出力し得る。予測方向識別子は、リスト0またはリスト1の中の参照ピクチャを参照フレームインデックスが示すことを示し得る。たとえば、予測方向識別子1はリスト0を示し、予測方向識別子2はリスト1を示し、予測方向識別子3は、双方向予測、すなわちリスト0およびリスト1を示す。動き補償ユニット44は、PUのための動き情報によって示される参照ブロックに基づいて、PUのための予測ピクチャブロックを生成し得る。
動き推定ユニット42がPUのための双方向予測を実行するとき、動き推定ユニット42は、PUのためのある参照ブロックを求めてリスト0の中の参照ピクチャを探すことができ、PUのための別の参照ブロックを求めてリスト1の中の参照ピクチャをさらに探すことができる。次いで、動き推定ユニット42は、リスト0およびリスト1の中の参照ブロックを含む参照ピクチャを示す参照インデックスと、参照ブロックとPUとの間の空間的なずれを示す動きベクトルとを生成し得る。動き推定ユニット42は、参照インデックスと、PUのための動きベクトルとを、PUのための動き情報として出力し得る。動き補償ユニット44は、PUのための動き情報によって示される参照ブロックに基づいて、PUのための予測ピクチャブロックを生成し得る。
いくつかの実現可能な実装形態では、動き推定ユニット42は、PUのための動き情報の完全なセットをエントロピー符号化モジュール56に出力しない。代わりに、動き推定ユニット42は、別のPUのための動き情報に関して、PUのための動き情報をシグナリングし得る。たとえば、動き推定ユニット42は、PUのための動き情報が隣接PUのための動き情報と非常に類似していると決定し得る。この実装形態では、動き推定ユニット42は、PUと関連付けられるシンタックス構造の中のインジケータ値を示すことができ、インジケータ値は、PUのための動き情報が隣接PUのための動き情報と同じであること、またはそれから導出され得ることを、ビデオデコーダ30に示す。別の実装形態では、動き推定ユニット42は、PUと関連付けられるシンタックス構造から、隣接PUと関連付けられる候補および動きベクトル差分(MVD)を特定し得る。MVDは、PUのための動きベクトルと隣接PUと関連付けられる示される候補との間の差分を示す。ビデオデコーダ30は、示される候補およびMVDを使用することによって、PUのための動きベクトルを決定し得る。
上で説明されたように、予測ユニット41は、CUの各PUのための候補リストを生成し得る。候補リストのうちの1つまたは複数は、オリジナル動き情報候補の1つまたは複数のグループと、オリジナル動き情報候補から導出される追加の動き情報候補の1つまたは複数のグループとを含み得る。
予測ユニット41の中のイントラ予測ユニット46は、空間的な圧縮をもたらすために、現在の復号されるべきブロックと同じピクチャまたはスライスの中の1つまたは複数の隣接ブロックに対する、現在のビデオブロックのイントラ予測復号を実行し得る。したがって、動き推定ユニット42および動き補償ユニット44によって実行される(上で説明されたような)インター予測の代替として、イントラ予測ユニット46は、現在のブロックのためのイントラ予測を実行し得る。具体的には、イントラ予測ユニット46は、現在のブロックを符号化するためのイントラ予測モードを決定し得る。いくつかの実現可能な実装形態では、イントラ予測ユニット46は(たとえば)、符号化トラバーサルの間、現在のブロックを符号化するために様々なイントラ予測モードを使用することができ、イントラ予測ユニット46(またはいくつかの実現可能な実装形態では、モード選択ユニット40)は、テストされたモードから適切なイントラ予測モードを選択することができる。
予測ユニット41がインター予測またはイントラ予測を通じて現在のビデオブロックの予測ブロックを生成した後で、ビデオエンコーダ20は、残差ビデオブロックを取得するために、現在のビデオブロックから予測ブロックを差し引く。残差ブロックの中の残差ビデオデータは、1つまたは複数のTUに含まれ、変換処理ユニット52に適用され得る。変換処理ユニット52は、残差ビデオデータを残差変換係数へと変換するために、変換、たとえば、離散コサイン変換(DCT)または他の概念的に同様の変換(たとえば、離散サイン変換DST)を適用する。変換処理ユニット52は、ピクセル領域から変換領域(たとえば、周波数領域)に残差ビデオデータを変換し得る。
変換処理ユニット52は、取得された変換係数を量子化ユニット54に送信し得る。量子化ユニット54は、変換係数を量子化してビットレートをさらに低減する。量子化処理は、係数の一部またはすべてと関連付けられるビット深度を低減することができる。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの実現可能な実装形態では、量子化ユニット54は、量子化された変換係数を含む行列を次いで走査し得る。代替として、エントロピー符号化ユニット56が走査を実行し得る。
量子化の後で、エントロピー符号化ユニット56は、量子化された変換係数をエントロピーコーディングし得る。たとえば、エントロピー符号化ユニット56は、コンテキスト適応可変長コーディング(CAVLC)、コンテキスト適応バイナリ算術コーディング(CABAC)、シンタックスベースコンテキスト適応バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディング、または別のエントロピーコーディング方法もしくは技術を実行し得る。エントロピー符号化ユニット56は、動きベクトルおよび現在復号されているビデオスライスの別のシンタックス要素をさらにエントロピーコーディングし得る。エントロピー符号化ユニット56によってエントロピーコーディングされた後、コーディングされたビットストリームは、ビデオデコーダ30に送信され、または、ビデオデコーダ30による後続の送信もしくは取り出しのために保管され得る。
エントロピー符号化ユニット56は、本出願の技術に従って、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、複数のイントラ予測モードインデックステーブルおよび複数の修正されたイントラ予測モードインデックステーブル(符号語マッピングテーブルとも称される)を含み得る、送信されるビットストリーム構成データに、様々なブロックの符号化コンテキストの定義、MPMの指示、イントラ予測モードインデックステーブル、およびコンテキストの各々のための修正されたイントラ予測モードインデックステーブルを含め得る。
逆量子化ユニット58および逆変換ユニット60は、参照ピクチャの参照ブロックとして後で使用されるべきピクセル領域における残差ブロックを再構築するために、逆量子化および逆変換をそれぞれ適用する。動き補償ユニット44は、参照ピクチャリストのうちの1つの中の参照ピクチャのうちの1つの残差ブロックと予測ブロックを加算することによって、再構築されたブロックを計算し得る。動き補償ユニット44はまた、動き推定のためのサブ整数ピクセル値を計算するために、1つまたは複数の補間フィルタを再構築された残差ブロックに適用し得る。加算器62は、再構築されたブロックを生成するために動き補償ユニット44によって生成される、再構築された残差ブロックおよび動き補償された予測ブロックを加算し、再構築されたブロックは、参照ブロックとして参照ピクチャメモリ64に記憶される。参照ブロックは、後続のビデオフレームまたはピクチャの中のブロックのためのインター予測を実行するための参照ブロックとして、動き推定ユニット42および動き補償ユニット44によって使用され得る。
ビデオエンコーダ20の他の構造的な変形がビデオストリームを符号化するために使用され得ることが理解されるべきである。たとえば、一部のピクチャブロックまたはピクチャフレームに対して、ビデオエンコーダ20は、変換ユニット52によって処理されることなく残差信号を直接量子化することができ、それに対応して、残差信号は、逆変換ユニット60によって処理される必要がない。代替として、一部のピクチャブロックまたはピクチャフレームに対して、ビデオエンコーダ20は、残差データを生成せず、それに対応して、変換ユニット52、量子化ユニット54、逆量子化ユニット58、および逆変換ユニット60による処理を必要としない。代替として、ビデオエンコーダ20の中の量子化ユニット54および逆量子化ユニット58は組み合わされてもよい。
図3は、本出願のある実施形態による、ビデオデコーダ30の概略ブロック図である。図3の実現可能な実装形態では、ビデオデコーダ30は、エントロピー符号化ユニット80、予測ユニット81、逆量子化ユニット86、逆変換ユニット88、加算器90(すなわち、再構築器)、および参照ピクチャメモリ92を含む。ある変形では、参照ピクチャメモリ92は、代替としてビデオデコーダ30の外側に配設されてもよい。予測ユニット81は、インター予測ユニット(図示されない)およびイントラ予測ユニット84を含む。イントラ予測ユニットは、たとえば、動き補償ユニット82であり得る。いくつかの実現可能な実装形態では、ビデオデコーダ30は、図4Aまたは図4Bのビデオエンコーダ20によって実行される符号化手順に関する、例示的な逆復号手順を実行し得る。
復号の間、ビデオデコーダ30は、ビデオエンコーダ20から、コーディングされたビデオスライスのビデオブロックおよび関連するシンタックス要素を示す、コーディングされたビデオビットストリームを受信する。ビデオデコーダ30のエントロピー符号化ユニット80は、量子化された係数、動きベクトル、および他のシンタックス要素を生成するために、ビットストリームをエントロピー復号する。エントロピー符号化ユニット80は、動きベクトルおよび他のシンタックス要素を予測ユニット81に送信する。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルでシンタックス要素を受信し得る。
ビデオスライスがイントラ復号された(I)スライスへと復号されるとき、予測ユニット81のイントラ予測ユニット84は、シグナリングされたイントラ予測モードおよび現在のフレームまたはピクチャの以前に復号されたブロックのデータに基づいて、現在のビデオスライスのビデオブロックの予測データを生成し得る。
ビデオピクチャがインター復号されたスライス(たとえば、Bスライス、Pスライス、またはGPBスライス)へと復号されるとき、予測ユニット81の動き補償ユニット82は、エントロピー符号化ユニット80から受信される動きベクトルおよび他のシンタックス要素に基づいて、現在のビデオピクチャのビデオブロックの予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つの中の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ92に記憶されている参照ピクチャに基づいて、参照ピクチャリスト(リスト0およびリスト1)を再構築するためにデフォルトの構築技術を使用し得る。
動き補償ユニット82は、動きベクトルおよび他のシンタックス要素を解析することによって現在のビデオスライスのビデオブロックの予測情報を決定し、この予測情報を使用して、復号されているビデオブロックの予測ブロックを生成する。たとえば、動き補償ユニット82は、ビデオスライスのビデオブロック、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)、スライスのための参照ピクチャリストのうちの1つまたは複数の構築情報、スライスの各々のインターコーディングされたビデオブロックの動きベクトル、スライスの各々のインター復号されたビデオブロックのインター予測状態、および現在のビデオスライスの中のビデオブロックを復号するための他の情報を復号するための予測モード(たとえば、イントラ予測またはインター予測)を決定するために、受信されたシンタックス要素の一部を使用する。
動き補償ユニット82は、補間フィルタを使用することによって補間をさらに実行し得る。動き補償ユニット82は、ビデオブロックのコーディングの間にビデオエンコーダ20によって使用される補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。本出願では、動き補償ユニット82は、受信されたシンタックス要素に基づいて、ビデオエンコーダ20によって使用される補間フィルタを決定し、補間フィルタを使用して予測ブロックを生成し得る。
PUがインター予測を通じて符号化される場合、動き補償ユニット82は、PUのための候補リストを生成し得る。ビットストリームは、PUのための候補リストにおける選択された候補の位置を特定するためのデータを含み得る。PUのための候補リストを生成した後、動き補償ユニット82は、PUのための動き情報によって示される1つまたは複数の参照ブロックに基づいて、PUのための予測ピクチャブロックを生成し得る。PUの参照ブロックは、PUの時間ピクチャとは異なる時間ピクチャの中にあり得る。動き補償ユニット82は、PUのための候補リストから選択された動き情報候補に基づいて、PUのための動き情報を決定し得る。
逆量子化ユニット86は、ビットストリームにおいて提供されエントロピー符号化ユニット80によって復号される、量子化された変換係数に対して逆量子化(たとえば、量子化解除)を実行する。逆量子化処理は、ビデオスライスの中の各ビデオブロックのためにビデオエンコーダ20によって計算される量子化パラメータを使用することによって量子化の程度を決定することと、適用されるべき逆量子化の程度を決定することとを含み得る。逆変換ユニット88は、ピクセル領域における残差ブロックを生成するために、逆変換(たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換処理)を変換係数に適用する。
動き補償ユニット82が、動きベクトルおよび他のシンタックス要素に基づいて現在のビデオブロックの予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット88からの残差ブロックおよび動き補償ユニット82によって生成される対応する予測ブロックを加算して、復号されたビデオブロックを形成する。加算器90(すなわち、再構築器)は、加算演算を実行する1つまたは複数の構成要素である。必要なとき、復号されたブロックをフィルタリングしてブロッキングアーティファクトを除去するために、デブロッキングフィルタがさらに使用され得る。別のループフィルタ(復号ループの中の、または復号ループの後の)が、ピクセル変換を平滑化するためにさらに使用されてもよく、または別の方式でビデオ品質が改善される。次いで、所与のフレームまたはピクチャの中の復号されたビデオブロックは、参照ピクチャメモリ92に記憶される。参照ピクチャメモリ92は、後続の動き補償のために使用される参照ピクチャを記憶する。参照ピクチャメモリ92は、図1の表示装置32などの表示装置に後で提示されるべき、復号されたビデオをさらに記憶する。
上で説明されたように、本出願の技術は、たとえばインター復号に関する。本出願の技術は、本出願で説明される任意のビデオデコーダによって実装されてもよく、ビデオデコーダは、(たとえば)図1から図3において示され説明されるビデオエンコーダ20およびビデオデコーダ30を含むことが理解されるべきである。具体的には、実現可能な実装形態では、図2で説明される予測ユニット41は、ビデオデータのブロックに対する符号化の間にインター予測が実行されるとき、以下で説明される特定の技術を実行し得る。別の実現可能な実装形態では、図3で説明される予測ユニット81は、ビデオデータのブロックに対する復号の間にインター予測が実行されるとき、以下で説明される特定の技術を実行し得る。したがって、全般的な「ビデオエンコーダ」または「ビデオデコーダ」への言及は、ビデオエンコーダ20、ビデオデコーダ30、または別のビデオ符号化ユニットもしくは符号化ユニットを含み得る。
ビデオデコーダ30の他の構造的な変形がコーディングされたビデオビットストリームを復号するために使用され得ることが理解されるべきである。たとえば、一部のピクチャブロックまたはピクチャフレームに対して、ビデオデコーダ30のエントロピー復号ユニット80は、量子化された係数を復号せず、それに対応して、逆量子化ユニット86および逆変換ユニット88による処理を必要としない。
図4Aは、本出願のある実施形態による、併合(Merge)モードの例示的なフローチャートである。ビデオエンコーダ(たとえば、ビデオエンコーダ20)は、併合操作200を実行し得る。別の実現可能な実装形態では、ビデオエンコーダは、併合操作200とは異なる併合操作を実行し得る。たとえば、別の実現可能な実装形態では、ビデオエンコーダは、併合操作を実行することができ、ビデオエンコーダは、併合操作200のステップよりも多数もしくは少数のステップ、または併合操作200のステップとは異なるステップを実行する。別の実現可能な実装形態では、ビデオエンコーダは、併合操作200のステップを異なる順序で、または並列に実行し得る。エンコーダは、スキップ(skip)モードでコーディングされたPUに対して併合操作200をさらに実行し得る。
ビデオエンコーダが併合操作200を開始した後で、ビデオエンコーダは、現在のPUのための候補リストを生成し得る(202)。ビデオエンコーダは、様々な方式で現在のPUのための候補リストを生成し得る。たとえば、ビデオエンコーダは、図7から図13において以下で説明される例示的な技術のうちの1つに従って、現在のPUのための候補リストを生成し得る。
上で説明されたように、現在のPUのための候補リストは、時間動き情報候補(略して時間候補)を含み得る。時間動き情報候補は、対応する時間領域の(同一位置)PUのための動き情報を示し得る。同一位置PUは、現在のピクチャではなく参照ピクチャにおいて、ピクチャフレームの中の現在のPUと同じ位置に、空間的に位置し得る。本出願では、対応する時間領域PUを含む参照ピクチャは、関連する参照ピクチャと称され得る。本出願では、関連する参照ピクチャの参照ピクチャインデックスは、関連する参照ピクチャインデックスと称され得る。上で説明されたように、現在のピクチャは、1つまたは複数の参照ピクチャリスト(たとえば、リスト0およびリスト1)と関連付けられ得る。参照ピクチャインデックスは、参照ピクチャリストにおける参照ピクチャの位置を示すことによって、参照ピクチャを示し得る。いくつかの実現可能な実装形態では、現在のピクチャは、合成された参照ピクチャリストと関連付けられ得る。
一部のビデオエンコーダでは、関連する参照ピクチャインデックスは、現在のPUと関連付けられる参照インデックスソース位置におけるPUを包含する参照ピクチャインデックスである。これらのビデオエンコーダにおいて、現在のPUと関連付けられる参照インデックスソース位置は、現在のPUの左側に隣接しており、または現在のPUの上側に隣接している。本出願では、PUと関連付けられるピクチャブロックが特定の位置を含む場合、PUはその特定の位置を「包含」し得る。
しかしながら、次のような例があり得る。現在のPUと関連付けられる参照インデックスソース位置が、現在のCU内にある。これらの例では、現在のPUと関連付けられる参照インデックスソース位置を包含するPUは、PUが現在のCUの上または左にある場合に利用可能であると見なされ得る。しかしながら、ビデオエンコーダは、同一位置PUを含む参照ピクチャを決定するために、現在のCUの別のPUのための動き情報を入手する必要があり得る。したがって、これらのビデオエンコーダは、現在のPUのための時間候補を生成するために、現在のCUのPUのための動き情報(たとえば、参照ピクチャインデックス)を使用し得る。言い換えると、これらのビデオエンコーダは、時間候補を生成するために、現在のCUに属するPUのための動き情報を使用し得る。したがって、ビデオエンコーダは、現在のPUのための候補リストと、現在のPUと関連付けられる参照インデックスソース位置を包含するPUとを、並行して生成することができない。
本出願の技術によれば、ビデオエンコーダは、任意の他のPUの参照ピクチャインデックスを参照することなく、関連する参照ピクチャインデックスを明示的に設定し得る。このようにして、ビデオエンコーダは、現在のCUの現在のPUのための候補リストおよび別のPUのための候補リストを並行して生成することができる。ビデオエンコーダは、関連する参照ピクチャインデックスを明示的に設定するので、関連する参照ピクチャインデックスは、現在のCUの任意の他のPUのための動き情報に基づかない。ビデオエンコーダが関連する参照ピクチャインデックスを明示的に設定するいくつかの実現可能な実装形態では、ビデオエンコーダは、関連する参照ピクチャインデックスを固定されたあらかじめ定義されあらかじめ設定された参照ピクチャインデックス(たとえば、0)に常に設定し得る。この方式で、ビデオエンコーダは、あらかじめ設定された参照ピクチャインデックスによって示される参照フレームの中の同一位置PUのための動き情報に基づいて、時間候補を生成してもよく、時間候補は、現在のCUの候補リストに含まれてもよい。
ビデオエンコーダが関連する参照ピクチャインデックスを明示的に設定する実現可能な実装形態では、ビデオエンコーダは、関連する参照ピクチャインデックスをシンタックス構造(たとえば、ピクチャヘッダ、スライスヘッダ、APS、または別のシンタックス構造)において明示的にシグナリングし得る。この実現可能な実装形態では、ビデオエンコーダは、各LCU(すなわち、CTU)、CU、PU、TU、または別のタイプのサブブロックのための関連する参照ピクチャインデックスを、デコーダ側にシグナリングし得る。たとえば、ビデオエンコーダは、CUの各PUのための関連する参照ピクチャインデックスが「1」に等しいことをシグナリングし得る。
いくつかの実現可能な実装形態では、関連する参照ピクチャインデックスは、明示的にではなく暗黙的に設定されてもよい。これらの実現可能な実装形態では、ビデオエンコーダは、現在のCUの外側の位置を包含するPUの参照ピクチャインデックスによって示される参照ピクチャの中のPUのための動き情報を使用することによって、これらの位置が現在のPUに厳密に隣接していない場合であっても、現在のCUのPUのための候補リストの中の各々の時間候補を生成し得る。
現在のPUのための候補リストを生成した後で、ビデオエンコーダは、候補リストの中の候補と関連付けられる予測ピクチャブロックを生成し得る(204)。ビデオエンコーダは、示された候補の動き情報に基づいて現在のPUのための動き情報を決定し、次いで、候補と関連付けられる予測ピクチャブロックを生成するために、現在のPUのための動き情報によって示される1つまたは複数の参照ブロックに基づいて、予測ピクチャブロックを生成し得る。ビデオエンコーダは、候補リストから候補のうちの1つを選択し得る(206)。ビデオエンコーダは、様々な方式で候補を選択し得る。たとえば、ビデオエンコーダは、候補と関連付けられる予測ピクチャブロックの各々のレートひずみコストについての分析に基づいて、候補のうちの1つを選択し得る。
候補を選択した後で、ビデオエンコーダは、候補のインデックスを出力し得る(208)。このインデックスは、候補リストの中の選択された候補の位置を示し得る。いくつかの実現可能な実装形態では、このインデックスは「merge_idx」と表され得る。
図4Bは、本出願のある実施形態による、高度動きベクトル予測(AMVP)モードの例示的なフローチャートである。ビデオエンコーダ(たとえば、ビデオエンコーダ20)は、AMVP操作210を実行し得る。
ビデオエンコーダがAMVP操作210を開始した後で、ビデオエンコーダは、現在のPUのための1つまたは複数の動きベクトルを生成し得る(211)。ビデオエンコーダは、現在のPUのための動きベクトルを生成するために、整数動き推定および分数動き推定を実行し得る。上で説明されたように、現在のピクチャは、2つの参照ピクチャリスト(たとえば、リスト0およびリスト1)と関連付けられ得る。単方向予測が現在のPUに対して実行される場合、ビデオエンコーダは、現在のPUのためのリスト0動きベクトルまたはリスト1動きベクトルを生成し得る。リスト0動きベクトルは、リスト0における、現在のPUに対応するピクチャブロックと参照ピクチャの中の参照ブロックとの間の空間的なずれを示し得る。リスト1動きベクトルは、リスト1における、現在のPUに対応するピクチャブロックと参照ピクチャの中の参照ブロックとの間の空間的なずれを示し得る。双方向予測が現在のPUに対して実行される場合、ビデオエンコーダは、現在のPUのためのリスト0動きベクトルおよびリスト1動きベクトルを生成し得る。
現在のPUのための1つまたは複数の動きベクトルを生成した後で、ビデオエンコーダは、現在のPUのための予測ピクチャブロック(予測ブロックと称される)を生成し得る(212)。ビデオエンコーダは、現在のPUのための1つまたは複数の動きベクトルによって示される1つまたは複数の参照ブロックに基づいて、現在のPUのための予測ピクチャブロックを生成し得る。
加えて、ビデオエンコーダは、現在のPUのための候補リストを生成し得る(213)。ビデオデコーダは、様々な方式で現在のPUのための予測動きベクトル候補リストを生成し得る。たとえば、ビデオエンコーダは、図6Aから図13に関して以下で説明される実現可能な実装形態のうちの1つまたは複数に従って、現在のPUのための候補リストを生成し得る。いくつかの実現可能な実装形態では、ビデオエンコーダがAMVP操作210において候補リストを生成するとき、予測動きベクトル候補リストは、2つまたは3つの予測動きベクトル候補を含み得る。対照的に、ビデオエンコーダが併合操作において予測動きベクトル候補リストを生成するとき、予測動きベクトル候補リストは、より多くの予測動きベクトル候補(たとえば、5つまたは7つの予測動きベクトル候補)を含み得る。
現在のPUのための候補リストを生成した後で、ビデオエンコーダは、候補リストの中の各々の予測動きベクトル候補のための、1つまたは複数の動きベクトル予測残差値(動きベクトル差分MVDとも称される)を生成し得る(214)。ビデオエンコーダは、予測動きベクトル候補のための動きベクトル差分を生成するために、予測動きベクトル候補によって示される動きベクトルと、現在のPUのための対応する動きベクトルとの差分を決定し得る。
単方向予測が現在のPUに対して実行される場合、ビデオエンコーダは、各々の予測動きベクトル候補のための単一のMVDを生成し得る。双方向予測が現在のPUに対して実行される場合、ビデオエンコーダは、各々の予測動きベクトル候補のための2つのMVDを生成し得る。第1のMVDは、予測動きベクトル候補によって示される動きベクトルと、現在のPUのためのリスト0動きベクトルとの差分を示し得る。第2のMVDは、予測動きベクトル候補によって示される動きベクトルと、現在のPUのためのリスト1動きベクトルとの差分を示し得る。
ビデオエンコーダは、予測動きベクトル候補リストから1つまたは複数の予測動きベクトル候補を選択し得る(215)。ビデオエンコーダは、様々な方式で1つまたは複数の予測動きベクトル候補を選択し得る。たとえば、ビデオエンコーダは、コーディングされるべき動きベクトルの関連する動きベクトルと、最小限の誤差で一致する予測動きベクトル候補を選択することができ、このことは、予測動きベクトル候補のための動きベクトル差分を表すために必要なビットの量を減らすことができる。
1つまたは複数の予測動きベクトル候補を選択した後で、ビデオエンコーダは、現在のPUのための1つまたは複数の参照ピクチャインデックスと、現在のPUのための1つまたは複数の予測動きベクトル候補インデックスと、1つまたは複数の選択された予測動きベクトル候補のための1つまたは複数の動きベクトル差分とを出力し得る(216)。
現在のピクチャが2つの参照ピクチャリスト(リスト0およびリスト1)と関連付けられ、単方向予測が現在のPUに対して実行される例では、ビデオエンコーダは、リスト0のための参照ピクチャインデックス(「ref_idx_10」)またはリスト1のための参照ピクチャインデックス(「ref_idx_11」)を出力し得る。ビデオエンコーダは、予測動きベクトル候補リストにおける、現在のPUに対するリスト0動きベクトルのための選択された予測動きベクトル候補の位置を示す、予測動きベクトル候補インデックス(「mvp_10_flag」)をさらに出力し得る。ビデオエンコーダは、予測動きベクトル候補リストにおける、現在のPUに対するリスト1動きベクトルのための選択された予測動きベクトル候補の位置を示す、予測動きベクトル候補インデックス(「mvp_11_flag」)を代替として出力し得る。ビデオエンコーダは、現在のPUのためのリスト0動きベクトルまたはリスト1動きベクトルのためのMVDを、代替として出力し得る。
現在のピクチャが2つの参照ピクチャリスト(リスト0およびリスト1)と関連付けられ、双方向予測が現在のPUに対して実行される例では、ビデオエンコーダは、リスト0のための参照ピクチャインデックス(「ref_idx_10」)およびリスト1のための参照ピクチャインデックス(「ref_idx_11」)を出力し得る。ビデオエンコーダは、予測動きベクトル候補リストにおける、現在のPUに対するリスト0動きベクトルのための選択された予測動きベクトル候補の位置を示す、予測動きベクトル候補インデックス(「mvp_10_flag」)をさらに出力し得る。ビデオエンコーダは、予測動きベクトル候補リストにおける、現在のPUに対するリスト1動きベクトルのための選択された予測動きベクトル候補の位置を示す、予測動きベクトル候補インデックス(「mvp_11_flag」)を代替として出力し得る。ビデオエンコーダは、現在のPUのためのリスト0動きベクトルのためのMVDまたは現在のPUのためのリスト1動きベクトルのためのMVDを、さらに出力し得る。
図5は、本出願のある実施形態による、ビデオデコーダ(たとえば、ビデオデコーダ30)によって実行される動き補償の例示的なフローチャートである。
ビデオデコーダが動き補償操作220を実行するとき、ビデオデコーダは、現在のPUのための選択された候補の指示を受信し得る(222)。たとえば、ビデオデコーダは、現在のPUのための候補リストにおける選択された候補の位置を示す候補インデックスを受信し得る。
現在のPUのための動き情報が併合モードで符号化され、双方向予測が現在のPUに対して実行される場合、ビデオデコーダは、第1の候補インデックスおよび第2の候補インデックスを受信し得る。第1の候補インデックスは、候補リストにおける現在のPUのためのリスト0動きベクトルの選択された候補の位置を示す。第2の候補インデックスは、候補リストにおける現在のPUのためのリスト1動きベクトルの選択された候補の位置を示す。いくつかの実現可能な実装形態では、単一のシンタックス要素は、2つの候補インデックスを特定するために使用され得る。
加えて、ビデオデコーダは、現在のPUのための候補リストを生成し得る(224)。ビデオデコーダは、様々な方式で現在のPUのための候補リストを生成し得る。たとえば、ビデオデコーダは、図6A、図6Bから図10に関して以下で説明される技術を使用することによって、現在のPUのための候補リストを生成し得る。ビデオデコーダが候補リストのための時間候補を生成するとき、ビデオデコーダは、図4Aまたは図4Bに関して上で説明されたように、同一位置PUを含む参照ピクチャを特定するための参照ピクチャインデックスを明示的にまたは暗黙的に設定し得る。
現在のPUのための候補リストを生成した後で、ビデオデコーダは、現在のPUのための候補リストの中の1つまたは複数の選択された候補によって示される動き情報に基づいて、現在のPUのための動き情報を決定し得る(225)。たとえば、現在のPUのための動き情報が併合モードで符号化される場合、現在のPUのための動き情報は、選択された候補によって示される動き情報と同じであり得る。現在のPUのための動き情報がAMVPモードで符号化される場合、ビデオデコーダは、選択された候補によって示される1つまたは複数の動きベクトルおよびビットストリームにおいて示される1つまたは複数のMVDを使用することによって、現在のPUのための1つまたは複数の動きベクトルを再構築し得る。現在のPUの参照ピクチャインデックスおよび予測方向識別子は、1つまたは複数の選択された候補の参照ピクチャインデックスおよび予測方向識別子と同じであり得る。現在のPUのための動き情報を決定した後で、ビデオデコーダは、現在のPUのための動き情報によって示される1つまたは複数の参照ブロックに基づいて、現在のPUのための予測ピクチャブロックを生成し得る(226)。
図6Aは、本出願のある実施形態による、コーディング単位(CU)、CUと関連付けられる空間領域隣接ピクチャブロック、およびCUと関連付けられる時間領域隣接ピクチャブロックの例示的な概略図である。図6Aは、CU600およびCU600と関連付けられる候補位置1から10の概略図である。候補位置1から5は、CU600と同じピクチャの中の空間的な候補を示す。候補位置1は、CU600の左に位置する。候補位置2は、CU600の上に位置する。候補位置3は、CU600の右上に位置する。候補位置4は、CU600の左下に位置する。候補位置5は、CU600の左上に位置する。候補位置6および7は、CU600の同一位置ブロック602と関連付けられる時間候補を示し、同一位置ブロックは、サイズ、形状、および座標が参照ピクチャ(すなわち、隣接するコーディングされるピクチャ)の中のCU600のそれらと同じである、ピクチャブロックである。候補位置6は、同一位置ブロック602の右下の角に位置する。候補位置7は、同一位置ブロック602の右下の中間の位置に、または同一位置ブロック602の左上の中間の位置に位置する。図6Aは、候補リストを生成するためにインター予測モジュール(たとえば、具体的には動き推定ユニット42または動き補償ユニット82)に提供される、候補位置の概略的な実装形態である。図6Aの候補位置1から5は、候補リストを生成するためにイントラ予測モジュールに提供される候補位置の概略的な実装形態である。
図6Aの空間的な候補位置および時間的な候補位置は例にすぎず、候補位置は前述の例を含むがそれに限定されないことに留意されたい。いくつかの実現可能な実装形態では、空間的な候補位置は、たとえば、処理されるべきピクチャブロックからあらかじめ設定された距離以内にあるがそれに隣接しない位置を、さらに含み得る。たとえば、このタイプの位置が、図6Bの6から27に示され得る。図6Bは、本出願のある実施形態による、コーディングユニットおよびコーディングユニットと関連付けられる空間領域隣接ピクチャブロックの例示的な概略図であることが理解されるべきである。処理されるべきピクチャブロックと同じピクチャフレームに位置しており、処理されるべきピクチャブロックが処理されるときに再構築されており、かつ処理されるべきピクチャブロックに隣接していない、ピクチャブロックの位置も、空間的な候補位置の範囲内にある。本明細書では、そのような位置は、空間領域非隣接ピクチャブロックと称される。空間候補は、図6Bに示される1つまたは複数の位置から選択され得ることが理解されるべきである。
いくつかの実現可能な実装形態では、候補位置は、たとえば、図6Cに示される1つまたは複数の位置、たとえば図6Cに示されるビュー間参照ブロックから、代替的に選択され得る。
本出願の実施形態におけるピクチャブロックの動き情報を予測するための方法は、併合(Merge)予測モードおよび/または高度動きベクトル予測(advanced motion vector prediction, AMVP)モードに適用可能であるだけではなく、現在のピクチャブロックの動き情報が、空間領域参照ブロック、時間領域参照ブロック、および/またはビュー間参照ブロックの動き情報を使用することによって予測される別のモードにも適用可能であるので、符号化および復号の性能が高まる。
図7は、本出願のある実施形態による、ピクチャブロックの動き情報を予測するための方法の例示的なフローチャートである。この方法は、イントラ予測またはインター予測のために使用される。この方法は、ビデオエンコーダ(たとえば、ビデオエンコーダ20)、ビデオデコーダ(たとえば、ビデオデコーダ30)、またはビデオ符号化と復号の機能を有する電子デバイス(たとえば、デバイス1500)によって実行され得る。方法は以下のステップを含み得る。
S701:現在のピクチャブロックの動き情報候補リストを決定/構築し、動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補(これは予測動き情報候補のP個のグループとも称され得る)を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値であり、P個の動き情報候補に対する重み付け係数の合計は1である。
S702:動き情報候補リストの中の目標動き情報を決定する。
S703:目標動き情報に基づいて、現在のピクチャブロックの動き情報を予測する。
加えて、本出願のこの実施形態において、重み付け処理が実行される(または重み付けが実行されるべきである)P個の動き情報候補は、以前に取得されたP個のオリジナル動き情報候補、または以前に取得されたP個の非オリジナル動き情報候補、または以前に取得され、オリジナル動き情報候補および非オリジナル動き情報候補を含むP個の動き情報候補、または動き情報候補リストに入れられているP個の動き情報候補、または動き情報候補リストに入れられる前のP個の動き情報候補であり得ることに留意されたい。これは、本出願の本実施形態において限定されない。以下では、図12に関する説明のための例を使用し、詳細は再びここでは説明されない。
いくつかの実現可能な実装形態では、少なくとも1つの合成された動き情報候補は、第2の合成された動き情報候補をさらに含み、第2の合成された動き情報候補は、対応する重み付け係数を使用することによりM個の動き情報候補を重み付けすることによって取得され、Mは2以上の整数であり、M個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ0よりも大きく1よりも小さい値であり、P個の動き情報候補のうちの少なくとも1つはM個の動き情報候補のうちの少なくとも1つとは異なり、M個の動き情報候補に対する重み付け係数の合計は1である。
ある例では、4つのオリジナル併合候補がある場合、本出願において提供される、合成された動き情報候補(以下で合成された重み付けされた併合候補と称される)の6つの組合せがある。6つの組合せは次のように記述される。
Merge_idx0[6]={0, 0, 1, 0, 1, 2}
Merge_idx1[6]={1, 2, 2, 3, 3, 3}
0、1、2、および3は、動き情報候補リスト(candidate list)の中のオリジナル併合候補のインデックス番号を示す。たとえば、0は、candidate listにおいてインデックス位置0にある候補を示す。それに対応して、第1の組合せは、併合インデックス番号0に対応する動きベクトル候補および併合インデックス番号1に対応する動きベクトル候補の組合せであり、具体的には、合成された重み付けされた併合候補は、併合インデックス番号0に対応する動きベクトル候補と、併合インデックス番号1に対応する動きベクトル候補とを重み付けすることによって取得される。第2の組合せは、併合インデックス番号0に対応する動きベクトル候補および併合インデックス番号2に対応する動きベクトル候補の組合せであり、具体的には、別の合成された重み付けされた予測併合候補は、併合インデックス番号0に対応する動きベクトル候補と、併合インデックス番号2に対応する動きベクトル候補とを重み付けすることによって取得される。その他の4つの合成された重み付けされた予測併合候補は、ここでは列挙されない。
いくつかの実現可能な実装形態では、第1の合成された動き情報候補は、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ0よりも大きく1よりも小さい値であり、P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1である。
第2の合成された動き情報候補は、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ0よりも大きく1よりも小さい値であり、M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1である。
いくつかの実現可能な実装形態では、P個の動き情報候補は、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、第1のインデックス識別子(第1のインデックス値とも称される)は第2のインデックス識別子(第2のインデックス値とも称される)未満であり、それに対応して、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。たとえば、上で言及された第1の組合せ、すなわち、併合インデックス番号0と1の組合せに対して、対応する併合候補の動きベクトルに対する重み付け係数(重み)は{2/3, 1/3}である。すべてのP個の動き情報候補に対する重み付け係数が同じであり、P個の動き情報候補に対する重み付け係数の合計が1である場合、第1の合成された動き情報候補を取得するためにP個の動き情報候補が重み付けされることは、第1の合成された動き情報候補を取得するためにP個の動き情報候補の平均値が計算されることとして理解され得る。
いくつかの実現可能な実装形態では、M個の動き情報候補は、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、第3のインデックス識別子は第4のインデックス識別子未満であり、それに対応して、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。すべてのM個の動き情報候補に対する重み付け係数が同じであり、M個の動き情報候補に対する重み付け係数の合計が1である場合、第2の合成された動き情報候補を取得するためにM個の動き情報候補が重み付けされることは、第2の合成された動き情報候補を取得するためにM個の動き情報候補の平均値が計算されることとして理解され得る。
本出願の様々な実施形態では、重み付け処理のために使用されるP個の動き情報候補は、複数の形態を有する。たとえば、P個の動き情報候補は、P個のオリジナル動き情報候補であり、または、P個の動き情報候補は、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、XはP以下の正の整数である。
本出願の様々な実施形態では、重み付け処理のために使用されるM個の動き情報候補は、複数の形態を有する。たとえば、M個の動き情報候補は、M個のオリジナル動き情報候補であり、または、M個の動き情報候補は、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、YはM以下の正の整数である。
本出願の様々な実施形態では、オリジナル動き情報候補は、現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、非オリジナル動き情報候補は、スケーリングされた動き情報候補、第1の合成された動き情報候補、第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補は、第1の目標参照フレームを指し第1の参照リストの中にある動きベクトル、および/または第2の目標参照フレームを指し第2の参照リストの中にある動きベクトルを含む。
図8Aは、本出願のある実施形態による、合成された情報候補を併合モード候補リストに追加することの例示的な概略図である。そのMerge_idxが0、1、および2である3つの候補が、オリジナル動き情報併合候補であり、そのMerge_idxが3、4、および5である3つの候補が、本出願において提供される、追加される合成された動き情報併合候補(以下では、合成された平均併合候補と称される)である。
各参照リスト(L0またはL1)に対して、参照リストの中の2つのオリジナル併合候補の動きベクトルの平均値は、参照リストの中の合成された平均併合候補の動きベクトルである。2つのオリジナル併合候補が参照リストの中の1つだけの動きベクトルを有する場合、動きベクトルは、参照リストの中の合成された平均併合候補の動きベクトルである。それ以外の場合、2つの動きベクトルの平均値は計算される必要がある。
図8Bは、本出願のある実施形態による、合成された動き情報候補を併合モード候補リストに追加することの別の例示的な概略図である。そのMerge_idxが0、1、および2である3つの候補が、オリジナル動き情報併合候補であり、そのMerge_idxが3、4、および5である3つの候補が、本出願において提供される、追加される合成された動き情報併合候補(以下では、合成された平均併合候補と称される)である。図8Aとは異なり、平均化が実行される前に、目標参照フレーム(たとえば、ref0)を指す動きベクトル(mvL0_A')を取得するために、参照リスト(たとえば、L0)の中の一部のオリジナル併合候補(たとえば、mvL0_A, ref0')の動きベクトルmvL0_Aに対して、まずスケーリング処理が実行される。
図9を参照すると、スケーリングされた動き情報候補は、以下の方法、すなわち、
第1の参照リスト(たとえば、L0)に対応する、現在のピクチャブロックの第1の目標参照フレーム(たとえば、ref0)、および/もしくは、第2の参照リスト(たとえば、ref1)に対応する、現在のピクチャブロックの第2の目標参照フレーム(たとえば、L1)を決定するステップであって、第1の目標参照フレームが、第1の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第1の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームであり、代替として、第2の目標参照フレームが、第2の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第2の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームである、ステップと、
特定の動き情報候補(たとえば、図8Bにおいてそのインデックス位置が0である動き情報候補)に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと同じであるかどうか、および/もしくは、特定の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと同じであるかどうかを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと異なる場合、時間領域距離またはビュー間距離に基づいて、第1の目標参照フレームを指す動きベクトル(たとえば、図8BのmvL0_A')を取得するために、動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトル(たとえば、図8BのmvL0_A)をスケーリングするステップ、および/または、
動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと異なる場合、スケーリングされた動き情報候補(たとえば、図8BのmvL0_A', ref0;mvL1_A', ref1)が取得されるように、時間領域距離またはビュー間距離に基づいて、第2の目標参照フレームを指す動きベクトル(たとえば、図8BのmvL1_A')を取得するために、動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトル(たとえば、図8BのmvL1_A)をスケーリングするステップと
を使用することによって、取得される。
本明細書で言及される動き情報候補は、上で言及されたP個の動き情報候補またはM個の動き情報候補のうちの1つであり得る。これは、本出願において限定されない。
図9に示されるように、スケーリングされるべき動き情報候補が時間領域方向の動き情報である場合、時間領域距離に基づくスケーリング処理は、次のように記述され得る。
MVdst =tdst * MVCan /tCan
tdst=currPicPOC-dstRefPicPOC
tCan=currPicPOC-CanRefPicPOC
MVdstはスケーリングされた動きベクトルを表し、MVCanはスケーリングされるべき動き情報候補に含まれる動きベクトルを表し、tdstは現在のフレームと目標参照フレームとの間のピクチャ順序カウント(picture order count, POC)距離を表し、tCanは現在のフレームと動き情報候補に含まれる参照フレームインデックスに対応する参照フレームとの間のPOC距離を表す。
図9を参照すると、スケーリングされるべき動き情報候補がビュー間方向の動き情報である場合、ビュー間距離に基づくスケーリング処理は、次のように記述され得る。
MVdst=tdst * MVCan /tCan
tdst=currPicVOI-dstRefPicVOI
tCan=currPicVOI-CanRefPicVOI
MVdstはスケーリングされた動きベクトルを表し、MVCanはスケーリングされるべき動き情報候補に含まれる動きベクトルを表し、tdstは現在のフレームと目標参照フレームとの間のビュー順序インデックス(view order index, VOI)距離を表し、tCanは現在のフレームと動き情報候補に含まれる参照フレームインデックスに対応する参照フレームとの間のVOI距離を表す。
図10は、本出願のある実施形態による、合成された動き情報候補をAMVPモード候補リストに追加することの例示的な概略図である。具体的には、参照リストL0の参照フレームインデックスRef0が、説明のための例として使用される。AMVP候補リストの中の候補の最大の量は4であることが仮定される。オリジナル動き情報候補がAMVP候補リストを充足しない場合、本出願において提供される合成された動き情報候補が、オリジナル動き情報候補の後に追加され得る。AMVP候補リストがまだ充足されない場合、ゼロ動きベクトルが追加される。そのMerge_idxが0および1である2つの候補は、オリジナルAMVP動き情報候補であり、そのMerge_idxが2である候補は、本出願において提供される、追加される合成されたAMVP動き情報候補(合成された平均AMVP候補とも称される)であり、そのMerge_idxが3である候補は、追加されるゼロ動きベクトルである。
本出願のこの実施形態におけるピクチャブロックの動き情報を予測するための方法において、参照のために使用されるより多くの動き情報候補を可能な限り多く発見することができ、それにより、動き情報候補を豊富にし、ゼロベクトル動き情報候補を用いた動き情報候補リストのパディングが、ある程度低減または回避されるように、複数の動き情報候補を重み付けすることによって、1つまたは複数の合成された動き情報候補が構築され得ることがわかる。このことは、動きベクトル予測の正確度をある程度高め、それにより符号化および復号の性能が高まる。
図11は、本出願のある実施形態による、併合候補リストを構築するための方法の例示的なフローチャートである。図11に示されるように、本出願において提供される合成された動き情報候補(合成された重み付け併合候補または合成された平均併合候補とも称される)は、合成された双方向予測動きベクトル併合候補(combined bi-predictive merge candidate)もしくはゼロ動きベクトルを置き換え、もしくはそれと互換性があるようにするために、または、オリジナル予測動きベクトル候補以外の別の追加の予測動きベクトル候補として機能するように、すべてのオリジナル動き情報候補または一部のオリジナル動き情報候補の後に配置され得る。処理1100は、ビデオエンコーダ20またはビデオデコーダ30によって実行されてもよく、たとえば、ビデオエンコーダ20のインター予測ユニットまたはビデオデコーダ30のインター予測ユニットによって実行されてもよい。ビデオエンコーダ20において、たとえば、インター予測ユニットは、動き推定ユニット42および動き補償ユニット44を含み得る。ビデオエンコーダ30において、たとえば、インター予測ユニットは、動き補償ユニット82を含み得る。インター予測ユニットは、PUのための動き情報候補リストを生成し得る。動き情報候補リストは、1つまたは複数のオリジナル動き情報候補と、オリジナル動き情報候補から導出される1つまたは複数の追加の動き情報候補とを含み得る。言い換えると、処理1100は、オリジナル動き情報候補を取得するための処理1110と、追加の動き情報候補を取得するための処理1130とを含み得る。処理1100は、一連のステップまたは動作として説明される。処理1100は、様々な順序で、かつ/または同時に実行されてもよく、この順序は、図11に示される実行順序に限定されないことが理解されるべきである。以下のステップを含む処理1100を実行して、現在のビデオフレームの現在のピクチャブロックの動き情報候補リストを構築するために、ビデオエンコーダまたはビデオデコーダが、複数のビデオフレームを有するビデオデータストリームのために使用されていると仮定される。
ステップ1111:処理されるべきピクチャブロックの候補リストの中のQ個のオリジナル動き情報候補を取得するために(または、処理されるべきピクチャブロックの候補リストを構築するために使用されるQ個のオリジナル動き情報候補を取得するために)、第1のあらかじめ設定された順序で現在のピクチャブロックの1つまたは複数の空間領域参照ブロックを検出し、Qは0以上の整数である。
ここでの検出は、本明細書の他の箇所で言及される「利用可能な」確認処理を含むことがあり、または、ここでの検出は、本明細書の他の箇所で言及される「利用可能な」確認処理および取り除き(たとえば、冗長性除去)処理を含むことがあることが理解されるべきである。詳細は再び説明されない。
図6Aおよび図6Bを参照すると、現在のピクチャブロックの1つまたは複数の空間領域参照ブロックは、現在のピクチャブロックが位置するピクチャの中にあり現在のピクチャブロックに隣接する1つまたは複数の空間領域参照ブロック、および/または、現在のピクチャブロックが位置するピクチャの中にあり現在のピクチャブロックに隣接しない1つまたは複数の空間領域参照ブロックを含む。図6Aに示されるように、現在のピクチャブロックが位置するピクチャの中にあり現在のピクチャブロックに隣接する1つまたは複数の空間領域参照ブロックは、現在のピクチャブロックの左下側に位置する第4の空間領域隣接ブロックA0、現在のピクチャブロックの左側に位置する第1の空間領域隣接ブロックA1、現在のピクチャブロックの右上側に位置する第3の区間領域隣接ブロックB0、現在のピクチャブロックの上側に位置する第2の空間領域隣接ブロックB1、または現在のピクチャブロックの左上側に位置する第5の空間領域隣接ブロックB2を含み得る。図6Bに示されるように、現在のピクチャブロックが位置しているピクチャの中にあり、処理されるべきピクチャブロックに隣接しない、1つまたは複数の空間領域参照ブロックは、第1の空間領域非隣接ピクチャブロック、第2の空間領域非隣接ピクチャブロック、第3の空間領域非隣接ピクチャブロックなどを含み得る。
ある実装形態では、ステップ1111において、第1の空間領域隣接ブロックA1、第2の空間領域隣接ブロックB1、第3の空間領域隣接ブロックB0、第4の空間領域隣接ブロックA0、および第5の空間領域隣接ブロックB2の中のQ1個の決定された動きベクトルピクチャブロックの動き情報を取得するために、第1の空間領域隣接ブロックA1、第2の空間領域隣接ブロックB1、第3の空間領域隣接ブロックB0、第4の空間領域隣接ブロックA0、および第5の空間領域隣接ブロックB2が利用可能であるかどうかが、順番に検出され、Q1は0以上での整数であり、
候補リストに、動き情報候補として検出を通じて取得されるQ1個の決定された動きベクトルピクチャブロックの動き情報の中の動き情報のQ個のグループを追加し、Q1はQ以上である。
第5の空間領域隣接ブロックB2の検出条件は次のことを含む: 第1の空間領域隣接ブロックA1、第2の空間領域隣接ブロックB1、第3の空間領域隣接ブロックB0、および第4の空間領域隣接ブロックA0のいずれか1つが利用不可能であるとき、第5の空間領域隣接ブロックB2が検出される。
ステップ1113:処理されるべきピクチャブロックの候補リストの中のS個のオリジナル動き情報候補を取得するために(または、処理されるべきピクチャブロックの候補リストを構築するために使用されるS個のオリジナル動き情報候補を取得するために)、第2のあらかじめ設定された順序(たとえば、図において6から7)で現在のピクチャブロックの1つまたは複数の時間領域参照ブロックを検出し、Sは0以上の整数である。
図6Aを参照すると、現在のピクチャブロックの1つまたは複数の時間領域参照ブロックは、現在のピクチャブロックの同一位置ブロックの中のピクチャブロック、または現在のピクチャブロックの同一位置ブロックの空間領域隣接ブロックとして理解され得る。たとえば、時間領域参照ブロックは、現在のピクチャブロックの同一位置ブロック(co-located block)の右下の空間領域隣接ブロックH、同一位置ブロックの左上中間ブロック、または同一位置ブロックの右下中間ブロックCtrを含み得る。同一位置ブロックは、参照ピクチャの中にあり、かつサイズ、形状、および座標が現在のピクチャブロックのそれらと同じであるピクチャブロックであり、または同一位置ブロックは、参照ピクチャの中にあり、現在のピクチャブロックの指定される位置からあるオフセットだけずれており、かつサイズおよび形状が現在のピクチャブロックのそれらと同じであるピクチャブロックである。
ステップ1131:処理されるべきピクチャブロックの候補リストの中の動き情報候補の数量が目標の量よりも少ないとき、T個の合成された動き情報候補を取得し、T個の合成された動き情報候補の中の第1の合成された動き情報候補は、対応する重み付け係数を使用することにより、以前に取得されたP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ0よりも大きく1よりも小さい値であり、P個の動き情報候補に対する重み付け係数の合計が1であるので、現在のピクチャブロックの候補リストの中のT個の新しく構築される合成された動き情報候補が取得され、Tは1以上の整数である。好ましくは、P個の動き情報候補の各々に対する重み付け係数wpiは、0よりも大きく1よりも小さい値であり得る。
目標の量は、現在のピクチャブロックの候補リストの中の動き情報候補のあらかじめ設定された最大の数量であり、または、目標の量は、ビットストリームを解析することによって取得されるインデックス識別子を使用することにより決定される動き情報候補の量である。
P個の動き情報候補は、たとえば処理1110において取得された、P個のオリジナル動き情報候補であり得ることが理解されるべきである。代替として、P個の動き情報候補は、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補(たとえば、以前に取得された合成された動き情報候補)であってもよく、XはP以下の正の整数である。
任意選択で、本発明のこの実施形態では、方法は以下をさらに含み得る。
ステップ1133:処理されるべきピクチャブロックの候補リストの中の動き情報候補の数量が目標の量未満であるとき、処理されるべきピクチャブロックの候補リストの中の合成された双方向予測動き情報候補を取得するために、候補リストに含まれる単方向予測タイプのオリジナル動き情報候補の2つのグループを合成する。
ステップ1133はステップ1131の前に実行されてもよく、またはステップ1131の後に実行されてもよいことに留意されたい。これは、本出願において限定されない。
図12は、本出願のある実施形態による、合成された双方向予測動き情報候補(combined bi-predictive merge candidate)を併合モード候補リストに追加することの例示的な概略図である。具体的には、2つのオリジナル候補(mvL0およびrefIdxL0またはmvL1およびrefIdxL1を有し得る)が、合成された双方向予測併合候補を生成するために使用され得る。図12において、2つの候補がオリジナル併合候補リストに含まれる。一方の候補の予測タイプはリスト0単方向予測であり、他方の候補の予測タイプはリスト1単方向予測である。この実現可能な実装形態では、mvL0_Aおよびref0はリスト0から取られ、mvL1_Bおよびref0はリスト1から取られる。次いで、双方向予測併合候補(リスト0におけるmvL0_Aおよびref0ならびにリスト1におけるmvL1_Bおよびref0を有する)が生成されてもよく、双方向予測併合候補が、候補リストに含まれている候補と異なるかどうかが、確認される。双方向予測併合候補が、候補リストに含まれている候補と異なる場合、ビデオデコーダは、候補リストに双方向予測併合候補を含め得る。
任意選択で、いくつかの可能な実装形態では、本発明のこの実施形態において、方法は以下のことをさらに含み得る。
ステップ1135:処理されるべきピクチャブロックの候補リストの中の動き情報候補の数量がそれでも目標の量よりも少ないとき、たとえば、前述の方式で生成された追加の候補がまだ不十分である場合、ビデオエンコーダまたはビデオデコーダは、追加のまたは余剰の候補を生成するために、ゼロ動きベクトルを動き情報候補としてさらに挿入し得る。
図13は、本出願のある実施形態による、ゼロ動きベクトルを併合モード予測動きベクトル候補リストに追加することの例示的な概略図である。ゼロベクトル予測動きベクトル併合候補は、ゼロベクトルと参照され得る参照インデックスとを合成することによって生成され得る。ゼロベクトル予測動きベクトル候補が繰り返されない場合、そのゼロベクトル予測動きベクトル候補が、予測動きベクトル併合候補リストに追加され得る。
候補リストは、前述の併合モード、または処理されるべきピクチャブロックの予測動きベクトルを取得するための別の予測モードにおいて使用されてもよく、エンコーダ側において使用されてもよく、または、対応するエンコーダ側と一致するデコーダ側において使用されてもよいことが理解されるべきである。たとえば、候補リストの中の候補の量は、あらかじめ設定された最大の量でもあり、エンコーダ側およびデコーダ側で一致している。具体的な量は限定されない。この場合、デコーダ側における操作のために、エンコーダ側における操作を参照する。詳細はここでは再び説明されない。
この実施形態では、候補リストを構築するために使用されるより多くの利用可能な動き情報候補を取得して、それにより、候補リストの中の候補の量が目標の量(たとえば、候補リストの中の動き情報候補のあらかじめ設定された最大の数量、または、ビットストリームを解析することによって取得されるインデックス識別子を使用することにより決定される動き情報候補の量)を満たすようにするためのゼロベクトルの手動の追加を、最大限回避または低減し、符号化性能を高めるために、より多くのオリジナル動き情報候補(たとえば、空間領域非隣接ピクチャブロックの動きベクトルが、処理されるべきブロックの候補リストの中の動き情報候補として使用される)が拡大され得るだけではなく、より多くの追加の動き情報候補も拡大され得る。
図14は、本出願のある実施形態による、ピクチャブロックの動き情報を予測するための装置1400の概略ブロック図である。予測装置1400は、ビデオピクチャを復号するためのイントラ予測またはインター予測と、ビデオピクチャを符号化するためのイントラ予測またはインター予測との両方に適用可能であることに留意されたい。本明細書の予測装置1400は、図2のイントラ予測ユニット46もしくは動き推定ユニット42に対応することがあり、または図3のイントラ予測ユニット84もしくは動き補償ユニット82に対応することがあることが理解されるべきである。予測装置1400は、
現在のピクチャブロックの動き情報候補リストを決定するように構成される動き情報候補リスト決定ユニット1401であって、動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ0よりも大きく1よりも小さい値であり、P個の動き情報候補に対する重み付け係数の合計が1であり、好ましくは、P個の動き情報候補の各々に対する重み付け係数wpiが0よりも大きく1よりも小さい値であり得る、動き情報候補リスト決定ユニット1401と、
動き情報候補リストの中の目標動き情報を決定するように構成される目標動き情報決定ユニット1402と、
目標動き情報に基づいて、現在のピクチャブロックの動き情報を予測するように構成される予測ユニット1403とを含み得る。
実現可能な実装形態では、少なくとも1つの合成された動き情報候補は、第2の合成された動き情報候補をさらに含み、第2の合成された動き情報候補は、対応する重み付け係数を使用することによりM個の動き情報候補を重み付けすることによって取得され、Mは2以上の整数であり、M個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ0よりも大きく1よりも小さい値であり、P個の動き情報候補のうちの少なくとも1つはM個の動き情報候補のうちの少なくとも1つとは異なり、M個の動き情報候補に対する重み付け係数の合計は1である。
実現可能な実装形態において、第1の合成された動き情報候補は、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ、0よりも大きく1よりも小さい値である。P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第2の合成された動き情報候補は、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
実現可能な実装形態では、P個の動き情報候補は、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、第1のインデックス識別子は第2のインデックス識別子未満であり、それに対応して、第1の動き情報候補に対する重み付け係数は、第2の動き情報候補に対する重み付け係数以上である。
M個の動き情報候補は、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、第3のインデックス識別子は第4のインデックス識別子未満であり、それに対応して、第3の動き情報候補に対する重み付け係数は、第4の動き情報候補に対する重み付け係数以上である。
実現可能な実装形態では、P個の動き情報候補は、P個のオリジナル動き情報候補であり、または、P個の動き情報候補は、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、XはP以下の正の整数である。
M個の動き情報候補は、M個のオリジナル動き情報候補であり、または、M個の動き情報候補は、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、YはM以下の正の整数である。
オリジナル動き情報候補は、現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、非オリジナル動き情報候補は、スケーリングされた動き情報候補、第1の合成された動き情報候補、第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補は、第1の目標参照フレームを指し第1の参照リストの中にある動きベクトル、および/または第2の目標参照フレームを指し第2の参照リストの中にある動きベクトルを含む。
実現可能な実装形態では、スケーリングされた動き情報候補は、
第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照フレーム、および/もしくは、第2の参照リストに対応する、現在のピクチャブロックの第2の目標参照フレームを決定するステップと、
特定の動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと同じであるかどうか、および/もしくは、特定の動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと同じであるかどうかを決定するステップと、
動き情報候補に含まれ第1の参照リストに対応する参照ピクチャが第1の目標参照フレームと異なる場合、時間領域距離またはビュー間距離に基づいて、第1の目標参照フレームを指す動きベクトルを取得するために、動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルをスケーリングするステップ、および/または、
動き情報候補に含まれ第2の参照リストに対応する参照ピクチャが第2の目標参照フレームと異なる場合、時間領域距離またはビュー間距離に基づいて、第2の目標参照フレームを指す動きベクトルを取得するために、動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルをスケーリングするステップと
を使用することによって、動き情報候補リスト決定ユニット1401によって取得される。
第1の目標参照フレームは、第1の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第1の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームであり、代替として、第2の目標参照フレームは、第2の参照リストに対応する、動き情報候補リストの中の最も頻繁に使用される動き情報候補の参照フレーム、または、第2の参照リストに対応する、動き情報候補リストの中で最小のインデックス識別子を有する動き情報候補の参照フレームである。
実現可能な実装形態では、たとえば、併合モードに対して、予測ユニットは、現在のピクチャブロックの動き情報として目標動き情報を使用するように特に構成される。
別の実現可能な実装形態において、たとえば、AMVPモードに対して、動き情報は動きベクトル予測を含み、予測ユニットは、現在のピクチャブロックの動きベクトル予測差分を取得するためにビットストリームを解析し、目標動き情報における動きベクトル予測と動きベクトル予測差分との合計を現在のピクチャブロックの動きベクトルとして使用するように特に構成される。
装置が現在のピクチャブロックを符号化するように構成されるとき、目標動き情報を決定ユニットは、動き情報候補リストの中の目標動き情報を決定するように特に構成され、目標動き情報を使用することによって現在のピクチャブロックを符号化するためのレートひずみコストが最小限であり、または、
装置が現在のピクチャブロックを復号するように構成されるとき、目標動き情報決定ユニットは、動き情報候補リストの中の、第5のインデックス識別子によって示される目標動き情報を決定するように特に構成され、第5のインデックス識別子は、動き情報候補リストの中の目標動き情報を示すために使用される。
動き情報候補リストは、1つまたは複数のタイプの動き情報候補、たとえば、時間領域動き情報(時間領域方向の動き情報とも称される)、ビュー間動き情報(ビュー間方向の動き情報とも称される)、および/またはイントラ動き情報のうちの1つまたは複数を含むことが留意されるべきである。
HEVCでは、本明細書の動き情報候補は、時間領域方向の動き情報であり、言い換えると、動きベクトルは、異なる瞬間における同じ視点の参照フレームを指し示す。
3D-HEVC(HEVCの3D拡張)では、動き情報候補は、時間領域方向の動き情報を指すだけではなく、ビュー間方向の動き情報も指すことがあり、言い換えると、動きベクトルは、同じ瞬間/異なる瞬間における異なる視点の参照フレームを指し示す。
HEVC SCC(HEVCスクリーンコンテンツコーディング拡張、HEVC Screen Content Coding Extensions)では、動き情報候補は、時間領域方向の動き情報を指すだけではなく、イントラ動き情報も指すことがあり、言い換えると、動きベクトルは現在の再構築されたフレームを指し示す。
したがって、併合/スキップ/AMVPモードにおける動き情報候補リストは、時間領域方向の動き情報、ビュー間方向の動き情報、またはイントラ動き情報を含み得る。具体的には、併合/スキップリストは複数のタイプの動き情報(時間領域/ビュー間/イントラ)を含み得る。しかしながら、AMVPリストは普通は、1つだけのタイプの動き情報を含む。
本出願のこの実施形態における予測装置において、参照のために使用されるより多くの動き情報候補を可能な限り多く発見することができ、それにより、動き情報候補を豊富にし、ゼロベクトル動き情報候補を用いた動き情報候補リストのパディングが、ある程度低減または回避されるように、複数の動き情報候補を重み付けすることによって、少なくとも1つの合成された動き情報候補が構築され得ることがわかる。このことは、動きベクトル予測の正確度をある程度高め、それにより符号化および復号の性能が高まる。
図15は、本出願のある実施形態による、符号化デバイスまたは復号デバイス(略して復号デバイス1500と称される)の実装形態の概略ブロック図である。復号デバイス1500は、プロセッサ1510、メモリ1530、およびバスシステム1550を含み得る。プロセッサおよびメモリは、バスシステムを使用することによって互いに接続される。メモリは命令を記憶するように構成される。プロセッサは、メモリに記憶されている命令を実行するように構成される。符号化デバイスのメモリはプログラムコードを記憶し、プロセッサは、本出願で説明される様々なビデオコーディングまたは復号方法、特に、様々なインター予測モードまたはイントラ予測モードにおけるビデオコーディングまたは復号方法、および、様々なインター予測モードまたはイントラ予測モードにおける動き情報予測方法を実行するために、メモリに記憶されているプログラムコードを呼び出し得る。反復を避けるために、詳細はここでは再び説明されない。
本出願のこの実施形態では、プロセッサ1510は、中央処理装置(Central Processing Unit、略して「CPU」)であってもよく、または、プロセッサ1510は、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)もしくは別のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理デバイス、ディスクリートハードウェア構成要素などであってもよい。汎用プロセッサはマイクロプロセッサであってもよく、プロセッサは任意の従来のプロセッサなどであってもよい。
メモリ1530は、読み取り専用メモリ(ROM)デバイスまたはランダムアクセスメモリ(RAM)デバイスを含み得る。任意の他の適切なタイプの記憶デバイスも、メモリ1530として使用され得る。メモリ1530は、バス1550を使用することによってプロセッサ1510によりアクセスされるコードおよびデータ1531を含み得る。メモリ1530は、オペレーティングシステム1533およびアプリケーションプログラム1535をさらに含み得る。アプリケーションプログラム1535は、本出願で説明されるビデオコーディングまたは復号方法(特に、本出願で説明されるピクチャブロックの動き情報を予測するための方法)をプロセッサ1510が実行することを可能にする、少なくとも1つのプログラムを含む。たとえば、アプリケーションプログラム1535は、アプリケーション1からNを含んでもよく、本出願で説明されるビデオコーディングまたは復号方法を実行するビデオコーディングまたは復号アプリケーション(略してビデオ復号アプリケーションと称される)をさらに含む。
データバスに加えて、バスシステム1550は、電力バス、制御バス、ステータス信号バスなどをさらに含み得る。しかしながら、明瞭な説明のために、図面ではバスはすべてバスシステム1550としてマークされている。
任意選択で、復号デバイス1500は、1つまたは複数の出力デバイス、たとえばディスプレイ1570をさらに含み得る。ある例では、ディスプレイ1570は、ディスプレイと、タッチ入力を動作可能に感知するタッチユニットとを組み合わせた、タッチディスプレイまたはタッチスクリーンであり得る。ディスプレイ1570は、バス1550を使用することによってプロセッサ1510に接続され得る。
図16は、ランダムアクセスRA構成および低遅延LP構成における、本出願のこの実施形態の解決策によりもたらされる符号化および復号の性能の向上を示す。本出願のこの実施形態の解決策は、ピクチャブロックの動き情報(たとえば、動きベクトル)の予測の正確度を改善するのを助け、ビデオ品質が同じであるとき、ビットレートを節約し、それにより、符号化および復号の性能を高める。
本明細書で開示され説明される、様々な説明のための論理ブロック、モジュール、およびアルゴリズムステップを参照して説明される機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組合せによって実装され得ることを、当業者は理解し得る。機能がソフトウェアによって実装される場合、様々な説明のための論理ブロック、モジュール、およびステップを参照して越明される機能は、1つまたは複数の命令もしくはコードとしてコンピュータ可読媒体に記憶され、またはそれを介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、コンピュータ可読記憶媒体を含んでもよく、これは、データ記憶媒体などの有形媒体、または、(たとえば、通信プロトコルに従って)ある場所から別の場所へのコンピュータプログラムの移送を容易にする任意の媒体を含む通信媒体に対応する。この方式では、コンピュータ可読媒体は普通は、(1)非一時的有形コンピュータ可読記憶媒体、または(2)信号もしくはキャリアなどの通信媒体に対応し得る。データ記憶媒体は、本出願で説明される技術を実装するための命令、コード、および/またはデータ構造を取り出すために、1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROMもしくは別のコンパクトディスク記憶装置、磁気ディスク記憶装置もしくは別の磁気記憶装置、フラッシュメモリ、または、命令もしくはデータ構造の形態で所望のプログラムコードを記憶するために使用され、コンピュータによりアクセスされ得る、任意の他の媒体を含み得る。加えて、あらゆる接続が適切にコンピュータ可読媒体と称される。たとえば、命令が、ウェブサイト、サーバ、または別のリモートソースから、同軸ケーブル、光ファイバ、より対線、デジタル加入者線(DSL)、または、赤外線、無線、およびマイクロ波などのワイヤレス技術を通じて送信される場合、同軸ケーブル、光ファイバ、より対線、DSL、または、赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、キャリア、信号、または他の一時的媒体を含まず、実際には、非一時的有形記憶媒体を意味することが理解されるべきである。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光学ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、およびBlu-ray(登録商標)ディスク(disc)を含む。ディスク(disk)は普通は磁気的にデータを再生するが、ディスク(disc)はレーザを用いて光学的にデータを再生する。前述のものの組合せも、コンピュータ可読媒体の範囲に含まれるべきである。
対応する機能は、1つまたは複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の等価な集積論理回路もしくはディスクリート論理回路などの、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用される「プロセッサ」という用語は、前述の構造のいずれか、または本明細書で説明される技術を実装するのに適した任意の他の構造を指し得る。加えて、いくつかの態様では、本明細書で説明される様々な説明のための論理ブロック、モジュール、およびステップを参照して説明された機能は、符号化と復号のために構成される専用ハードウェアおよび/もしくはソフトウェアモジュール内に設けられてよく、または合成コーデックへと組み込まれてもよい。加えて、本技術は、1つまたは複数の回路または論理要素において完全に実装され得る。ある例では、ビデオエンコーダ20およびビデオデコーダ30の中の様々な説明のための論理ブロック、ユニット、およびモジュールは、対応する回路デバイスまたは論理要素として理解され得る。
本明細書の技術は、ワイヤレスハンドセット、集積回路(IC)、またはICのグループ(たとえば、チップセット)を含む、様々な装置またはデバイスにおいて実装され得る。本明細書で説明される様々なコンポーネント、モジュール、またはユニットは、開示される技術を実行するように構成される装置の機能の態様を強調することが意図されているが、必ずしも異なるハードウェアユニットによって実施される必要はない。実際に、上で説明されたように、様々なユニットが、適切なソフトウェア/ファームウェアと組み合わせて、コーデックのハードウェアユニットへと組み合わされてもよく、または、相互運用可能なハードウェアユニット(上で説明された1つまたは複数のプロセッサを含む)によって提供されてもよい。
前述の説明は、本出願の特定の実装形態の例にすぎず、本出願の保護範囲を限定することは意図されていない。本出願で開示される技術範囲内の当業者により容易に理解されるあらゆる変形または置換を行うことができ、すべてが本出願の保護範囲内にある。したがって、本出願の保護範囲は、請求項の保護範囲に従うものとする。
10 ビデオ符号化および復号システム
12 ソース装置
14 宛先装置
16 リンク
18 ビデオソース
20 ビデオエンコーダ
22 出力インターフェース
28 入力インターフェース
30 ビデオデコーダ
32 表示装置
34 記憶システム
35 区分ユニット
36 ファイルサーバ
40 モード選択ユニット
41 予測ユニット
42 動き推定ユニット
44 動き補償ユニット
46 イントラ予測ユニット
50 加算器
52 変換ユニット
54 量子化ユニット
56 エントロピー符号化ユニット
58 逆量子化ユニット
60 逆変換ユニット
62 加算器
64 参照ピクチャメモリ
80 エントロピー復号ユニット
81 予測ユニット
82 動き補償ユニット
84 イントラ予測ユニット
86 逆量子化ユニット
88 逆変換ユニット
90 加算器
92 参照ピクチャメモリ
600 現在のブロック
602 同一位置ブロック
1400 予測装置
1401 動き情報候補リスト決定ユニット
1402 目標動き情報決定ユニット
1403 予測ユニット
1500 復号デバイス
1510 プロセッサ
1530 メモリ
1531 データ
1533 オペレーティングシステム
1535 アプリケーションプログラム
1550 バスシステム、バス
1570 ディスプレイ
加えて、方法が現在のピクチャブロックを符号化するために使用されるとき、1つの合成された動き情報候補が取得される場合、その唯一の合成された動き情報候補が目標動き情報であることが決定され、または、1つよりも多くの合成された動き情報候補が取得される場合、目標動き情報は、1つよりも多くの合成された動き情報候補において決定され、目標動き情報を使用することによって現在のピクチャブロックを符号化するためのレートひずみコストは最小限である。
方法が現在のピクチャブロックを復号するために使用されるとき、1つの合成された動き情報候補が取得される場合、その唯一の合成された動き情報候補が目標動き情報であることが決定され、または、1つよりも多くの合成された動き情報候補が取得される場合、ビットストリームの中の識別情報によって示される目標動き情報は、1つよりも多くの合成された動き情報候補において決定される。
代替として、コーディングされたデータは、出力インターフェース22を通じて記憶装置24に出力され得る。同様に、コーディングされたデータは、入力インターフェースを通じて記憶装置24からアクセスされ得る。記憶装置24は、複数の分散したデータ記憶媒体またはローカルアクセスデータ記憶媒体、たとえば、ハードディスクドライブ、Blu-ray(登録商標)ディスク、DVD、CD-ROM、フラッシュメモリ、揮発性メモリもしくは不揮発性メモリ、または、コーディングされたビデオデータを記憶するように構成される任意の他の適切なデータ記憶媒体のうちの任意の1つを含み得る。別の実現可能な実装形態では、記憶装置24は、ソース装置12によって生成されるコーディングされたビデオデータを記憶することが可能な、ファイルサーバまたは別の中間記憶装置に対応し得る。宛先装置14は、ストリーミング送信またはダウンロードを通じて、記憶装置24からの記憶されているビデオデータにアクセスし得る。ファイルサーバは、コーディングされたビデオデータを記憶し、コーディングされたビデオデータを宛先装置14に送信することが可能な任意のタイプのサーバであり得る。実現可能な実装形態では、ファイルサーバは、ウェブサーバ、ファイル転送プロトコルサーバ、ネットワークアタッチトストレージ装置、またはローカルディスクドライブを含む。宛先装置14は、インターネット接続を含む任意の標準的なデータ接続を通じて、コーディングされたビデオデータにアクセスし得る。データ接続は、ファイルサーバに記憶されているコーディングされたビデオデータにアクセスするのに適した、ワイヤレスチャネル(たとえば、Wi-Fi接続)、有線接続(たとえば、ケーブルモデム)、またはこれらの組合せを含み得る。記憶装置24からのコーディングされたビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはこれらの組合せであり得る。
HEVC規格はTUベースの変換を許容し、TUは異なるCUに対して異なり得る。TUのサイズは、区分されたLCUのために定義される所与のCU内のPUのサイズに基づいて、普通は設定される。しかしながら、常にこのようであるとは限らない。TUのサイズは、普通はPUのサイズと同じであるか、それよりも小さい。いくつかの実現可能な実装形態では、「残差四分木」(residual quadtree, RQT)と称される四分木構造が、CUに対応する残差サンプルをより小さい単位へと分割するために使用され得る。RQTのリーフノードはTUと称され得る。TUと関連付けられるピクセル差分は、変換係数を生成するために変換されてもよく、変換係数は量子化されてもよい。
上で説明されたように、本出願の技術は、たとえばインター復号に関する。本出願の技術は、本出願で説明される任意のビデオデコーダによって実装されてもよく、ビデオデコーダは、(たとえば)図1から図3において示され説明されるビデオエンコーダ20およびビデオデコーダ30を含むことが理解されるべきである。具体的には、実現可能な実装形態では、図2で説明される予測ユニット41は、ビデオデータのブロックに対する符号化の間にインター予測が実行されるとき、以下で説明される特定の技術を実行し得る。別の実現可能な実装形態では、図3で説明される予測ユニット81は、ビデオデータのブロックに対する復号の間にインター予測が実行されるとき、以下で説明される特定の技術を実行し得る。したがって、全般的な「ビデオエンコーダ」または「ビデオデコーダ」への言及は、ビデオエンコーダ20、ビデオデコーダ30、または別のビデオ符号化ユニットもしくは復号ユニットを含み得る。
加えて、ビデオエンコーダは、現在のPUのための候補リストを生成し得る(213)。ビデオエンコーダは、様々な方式で現在のPUのための予測動きベクトル候補リストを生成し得る。たとえば、ビデオエンコーダは、図6Aから図13に関して以下で説明される実現可能な実装形態のうちの1つまたは複数に従って、現在のPUのための候補リストを生成し得る。いくつかの実現可能な実装形態では、ビデオエンコーダがAMVP操作210において候補リストを生成するとき、予測動きベクトル候補リストは、2つまたは3つの予測動きベクトル候補を含み得る。対照的に、ビデオエンコーダが併合操作において予測動きベクトル候補リストを生成するとき、予測動きベクトル候補リストは、より多くの予測動きベクトル候補(たとえば、5つまたは7つの予測動きベクトル候補)を含み得る。
いくつかの実現可能な実装形態では、第1の合成された動き情報候補は、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ0よりも大きく1よりも小さい値であり、P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1である。
第2の合成された動き情報候補は、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ0よりも大きく1よりも小さい値であり、M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1である。
実現可能な実装形態において、第1の合成された動き情報候補は、P個の動き情報候補の中にあり第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、P個の動き情報候補の中にあり第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2は2以上の整数であり、P1個またはP2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiはそれぞれ、0よりも大きく1よりも小さい値である。P1個の動きベクトル候補に対する重み付け係数の合計は1であり、P2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。
第2の合成された動き情報候補は、M個の動き情報候補の中にあり第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、M個の動き情報候補の中にあり第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2は2以上の整数であり、M1個またはM2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiはそれぞれ、0よりも大きく1よりも小さい値である。M1個の動きベクトル候補に対する重み付け係数の合計は1であり、M2個の動きベクトル候補に対する重み付け係数の合計は1であることが理解されるべきである。

Claims (48)

  1. ピクチャブロックの動き情報を予測するための方法であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記方法が、
    現在のピクチャブロックの動き情報候補リストを決定するステップであって、前記動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、前記少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、前記P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、ステップと、
    前記動き情報候補リストの中の目標動き情報を決定するステップと、
    前記目標動き情報に基づいて前記現在のピクチャブロックの動き情報を予測するステップと
    を含む、方法。
  2. 前記少なくとも1つの合成された動き情報候補が、第2の合成された動き情報候補をさらに含み、前記第2の合成された動き情報候補が、対応する重み付け係数を使用することによりM個の動き情報候補を重み付けすることによって取得され、Mが2以上の整数であり、前記M個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiがそれぞれ、0よりも大きく1よりも小さい値である、請求項1に記載の方法。
  3. 前記P個の動き情報候補の各々が、第1の参照リストに対応する動きベクトルおよび前記第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび前記第2の参照リストに対応する参照ピクチャインデックスを含み、
    前記P個の動き情報候補の中にあり前記第1の参照リストに対応する、P1個の参照ピクチャインデックスが同じであり、もしくは、前記P個の動き情報候補の中にあり前記第1の参照リストに対応する、P1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
    前記P個の動き情報候補の中にあり前記第2の参照リストに対応する、P2個の参照ピクチャインデックスが同じであり、もしくは、前記P個の動き情報候補の中にあり前記第2の参照リストに対応する、P2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
    1<P1≦P、1<P2≦Pであり、P1またはP2が2以上の整数である、請求項1に記載の方法。
  4. 前記第1の合成された動き情報候補が、前記P個の動き情報候補の中にあり前記第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、前記P個の動き情報候補の中にあり前記第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2が2以上の整数であり、前記P1個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値であり、前記P2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、請求項1、2、または3に記載の方法。
  5. 前記第2の合成された動き情報候補が、前記M個の動き情報候補の中にあり前記第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、前記M個の動き情報候補の中にあり前記第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2が2以上の整数であり、前記M1個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiがそれぞれ、0よりも大きく1よりも小さい値であり、前記M2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiがそれぞれ、0よりも大きく1よりも小さい値である、請求項2に記載の方法。
  6. 前記P個の動き情報候補が、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、前記第1のインデックス識別子が前記第2のインデックス識別子未満であり、前記第1の動き情報候補に対する重み付け係数が、前記第2の動き情報候補に対する重み付け係数以上である、請求項1から4のいずれか一項に記載の方法。
  7. 前記M個の動き情報候補が、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、前記第3のインデックス識別子が前記第4のインデックス識別子未満であり、前記第3の動き情報候補に対する重み付け係数が、前記第4の動き情報候補に対する重み付け係数以上である、請求項2、3、または5に記載の方法。
  8. 前記P個の動き情報候補がP個のオリジナル動き情報候補であり、または、
    前記P個の動き情報候補が、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、XがP以下の正の整数である、請求項1、2、3、4、または6に記載の方法。
  9. 前記M個の動き情報候補がM個のオリジナル動き情報候補であり、または、
    前記M個の動き情報候補が、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、YがM以下の正の整数である、請求項2、3、5、または7に記載の方法。
  10. 前記オリジナル動き情報候補が、前記現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、前記現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または前記現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、
    前記非オリジナル動き情報候補が、スケーリングされた動き情報候補、前記第1の合成された動き情報候補、前記第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補が、前記第1の目標参照ピクチャを指し示し前記第1の参照リストの中にある動きベクトル、および/または、前記第2の目標参照ピクチャを指し示し前記第2の参照リストの中にある動きベクトルを含む、請求項8または9に記載の方法。
  11. 前記スケーリングされた動き情報候補が、以下の方法、すなわち、
    前記第1の参照リストに対応する、前記現在のピクチャブロックの前記第1の目標参照ピクチャ、および/もしくは、前記第2の参照リストに対応する、前記現在のピクチャブロックの前記第2の目標参照ピクチャを決定するステップと、
    前記動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが前記第1の目標参照ピクチャと同じであるかどうか、および/もしくは、前記動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが前記第2の目標参照ピクチャと同じであるかどうかを決定するステップと、
    前記動き情報候補に含まれ前記第1の参照リストに対応する前記参照ピクチャが前記第1の目標参照ピクチャと異なる場合、前記第1の目標参照ピクチャを指し示す前記動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、前記動き情報候補に含まれ前記第1の参照ピクチャリストに対応する前記動きベクトルをスケーリングするステップ、および/または、
    前記動き情報候補に含まれ前記第2の参照リストに対応する前記参照ピクチャが前記第2の目標参照ピクチャと異なる場合、前記第2の目標参照ピクチャを指し示す前記動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、前記動き情報候補に含まれ前記第2の参照ピクチャリストに対応する前記動きベクトルをスケーリングするステップと
    を使用することによって取得される、請求項10に記載の方法。
  12. 前記動き情報候補リストの中に4つのオリジナル併合候補があり、
    それに対応して、前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャであり、または、
    前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャである、請求項11に記載の方法。
  13. 前記第1の参照リストに対応する、前記現在のピクチャブロックの前記第1の目標参照ピクチャを決定する前記ステップが、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定するステップ、または、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R(たとえば、4)よりも大きい場合、前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定するステップ
    を含む、請求項11に記載の方法。
  14. 前記第2の参照リストに対応する、前記現在のピクチャブロックの前記第2の目標参照ピクチャを決定する前記ステップが、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定するステップ、または、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量Rよりも大きい場合、前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定するステップ
    を含む、請求項11に記載の方法。
  15. 前記第1の参照リストに対応する、前記現在のピクチャブロックの前記第1の目標参照ピクチャ、および/もしくは、前記第2の参照リストに対応する、前記現在のピクチャブロックの前記第2の目標参照ピクチャを決定する前記ステップが、
    前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、合成されるべき前記P個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定するステップ、および/または、
    前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、合成されるべき前記P個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定するステップ
    を含む、請求項11に記載の方法。
  16. 前記目標動き情報に基づいて前記現在のピクチャブロックの動き情報を予測する前記ステップが、
    前記現在のピクチャブロックの前記動き情報として前記目標動き情報を使用するステップを含む、請求項1から15のいずれか一項に記載の方法。
  17. 前記動き情報が動きベクトル予測を含み、
    前記目標動き情報に基づいて前記現在のピクチャブロックの動き情報を予測する前記ステップが、
    ビットストリームを解析して、前記現在のピクチャブロックの動きベクトル差分を取得するステップと、
    前記目標動き情報の中の前記動きベクトル予測と前記動きベクトル予測差分との合計を前記現在のピクチャブロックの動きベクトルとして使用するステップと
    を含む、請求項1から15のいずれか一項に記載の方法。
  18. 前記方法が、前記現在のピクチャブロックを符号化するために使用され、目標動き情報を決定する前記ステップが、前記動き情報候補リストの中の前記目標動き情報を決定するステップを含み、前記目標動き情報を使用することによって前記現在のピクチャブロックを符号化するためのレートひずみコストが最小限であり、または、
    前記方法が、前記現在のピクチャブロックを復号するために使用され、目標動き情報を決定する前記ステップが、前記動き情報候補リストの中の、第5のインデックス識別子によって示される目標動き情報を決定するステップを含み、前記第5のインデックス識別子が、前記動き情報候補リストの中の前記目標動き情報を示すために使用される、請求項1から17のいずれか一項に記載の方法。
  19. ピクチャブロックの動き情報を予測するための装置であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記装置が、
    現在のピクチャブロックの動き情報候補リストを決定するように構成される動き情報候補リスト決定ユニットであって、前記動き情報候補リストが、少なくとも1つの合成された動き情報候補を含み、前記少なくとも1つの合成された動き情報候補の中の第1の合成された動き情報候補が、対応する重み付け係数を使用することによりP個の動き情報候補を重み付けすることによって取得され、Pが2以上の整数であり、前記P個の動き情報候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、動き情報候補リスト決定ユニットと、
    前記動き情報候補リストの中の目標動き情報を決定するように構成される目標動き情報決定ユニットと、
    前記目標動き情報に基づいて前記現在のピクチャブロックの動き情報を予測するように構成される予測ユニットと
    を備える、装置。
  20. 前記少なくとも1つの合成された動き情報候補が、第2の合成された動き情報候補をさらに含み、前記第2の合成された動き情報候補が、対応する重み付け係数を使用することによりM個の動き情報候補を重み付けすることによって取得され、Mが2以上の整数であり、前記M個の動き情報候補のうちの少なくとも2つに対する重み付け係数wmiがそれぞれ、0よりも大きく1よりも小さい値である、請求項19に記載の装置。
  21. 前記P個の動き情報候補の各々が、第1の参照リストに対応する動きベクトルおよび前記第1の参照リストに対応する参照ピクチャインデックス、ならびに/または、第2の参照リストに対応する動きベクトルおよび前記第2の参照リストに対応する参照ピクチャインデックスを含み、
    前記P個の動き情報候補の中にあり前記第1の参照リストに対応する、P1個の参照ピクチャインデックスが同じであり、もしくは、前記P個の動き情報候補の中にあり前記第1の参照リストに対応する、P1個の参照ピクチャインデックスが第1の目標参照ピクチャのインデックスと同じであり、または、
    前記P個の動き情報候補の中にあり前記第2の参照リストに対応する、P2個の参照ピクチャインデックスが同じであり、もしくは、前記P個の動き情報候補の中にあり前記第2の参照リストに対応する、P2個の参照ピクチャインデックスが第2の目標参照ピクチャのインデックスと同じであり、
    1<P1≦P、1<P2≦Pであり、P1またはP2が2以上の整数である、請求項19に記載の装置。
  22. 前記第1の合成された動き情報候補が、前記P個の動き情報候補の中にあり前記第1の参照リストに対応する、P1個の動きベクトル候補の重み付けされた値、および/または、前記P個の動き情報候補の中にあり前記第2の参照リストに対応する、P2個の動きベクトル候補の重み付けされた値を含み、1<P1≦P、1<P2≦Pであり、P1またはP2が2以上の整数であり、前記P1個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値であり、前記P2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wpiがそれぞれ、0よりも大きく1よりも小さい値である、請求項19、20、または21に記載の装置。
  23. 前記第2の合成された動き情報候補が、前記M個の動き情報候補の中にあり前記第1の参照リストに対応する、M1個の動きベクトル候補の重み付けされた値、および/または、前記M個の動き情報候補の中にあり前記第2の参照リストに対応する、M2個の動きベクトル候補の重み付けされた値を含み、1<M1≦M、1<M2≦Mであり、M1またはM2が2以上の整数であり、前記M1個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiがそれぞれ、0よりも大きく1よりも小さい値であり、前記M2個の動きベクトル候補のうちの少なくとも2つに対する重み付け係数wmiがそれぞれ、0よりも大きく1よりも小さい値である、請求項20に記載の装置。
  24. 前記P個の動き情報候補が、第1のインデックス識別子に対応する第1の動き情報候補および第2のインデックス識別子に対応する第2の動き情報候補を含み、前記第1のインデックス識別子が前記第2のインデックス識別子未満であり、前記第1の動き情報候補に対する重み付け係数が、前記第2の動き情報候補に対する重み付け係数以上である、請求項19から22のいずれか一項に記載の装置。
  25. 前記M個の動き情報候補が、第3のインデックス識別子に対応する第3の動き情報候補および第4のインデックス識別子に対応する第4の動き情報候補を含み、前記第3のインデックス識別子が前記第4のインデックス識別子未満であり、前記第3の動き情報候補に対する重み付け係数が、前記第4の動き情報候補に対する重み付け係数以上である、請求項20、21、または23に記載の装置。
  26. 前記P個の動き情報候補がP個のオリジナル動き情報候補であり、または、
    前記P個の動き情報候補が、(P-X)個のオリジナル動き情報候補およびX個の非オリジナル動き情報候補であり、XがP以下の正の整数である、請求項19、20、21、22、または24に記載の装置。
  27. 前記M個の動き情報候補がM個のオリジナル動き情報候補であり、または、
    前記M個の動き情報候補が、(M-Y)個のオリジナル動き情報候補およびY個の非オリジナル動き情報候補であり、YがM以下の正の整数である、請求項20、21、23、または25に記載の装置。
  28. 前記オリジナル動き情報候補が、前記現在のピクチャブロックの1つまたは複数の空間領域参照ブロックの動き情報、前記現在のピクチャブロックの1つまたは複数の時間領域参照ブロックの動き情報、および/または前記現在のピクチャブロックの1つまたは複数のビュー間参照ブロックの動き情報を含み、
    前記非オリジナル動き情報候補が、スケーリングされた動き情報候補、前記第1の合成された動き情報候補、前記第2の合成された動き情報候補、合成された双方向予測動き情報候補、および/またはゼロ動き情報を含み、各々のスケーリングされた動き情報候補が、前記第1の目標参照ピクチャを指し示し前記第1の参照リストの中にある動きベクトル、および/または、前記第2の目標参照ピクチャを指し示し前記第2の参照リストの中にある動きベクトルを含む、請求項26または27に記載の装置。
  29. 前記スケーリングされた動き情報候補が、以下のステップ、すなわち、
    前記第1の参照リストに対応する、前記現在のピクチャブロックの前記第1の目標参照ピクチャ、および/もしくは、前記第2の参照リストに対応する、前記現在のピクチャブロックの前記第2の目標参照ピクチャを決定するステップと、
    前記動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが前記第1の目標参照ピクチャと同じであるかどうか、および/もしくは、前記動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが前記第2の目標参照ピクチャと同じであるかどうかを決定するステップと、
    前記動き情報候補に含まれ前記第1の参照リストに対応する前記参照ピクチャが前記第1の目標参照ピクチャと異なる場合、前記第1の目標参照ピクチャを指し示す前記動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、前記動き情報候補に含まれ前記第1の参照ピクチャリストに対応する前記動きベクトルをスケーリングするステップ、および/または、
    前記動き情報候補に含まれ前記第2の参照リストに対応する前記参照ピクチャが前記第2の目標参照ピクチャと異なる場合、前記第2の目標参照ピクチャを指し示す前記動きベクトルを取得するために、時間領域距離またはビュー間距離に基づいて、前記動き情報候補に含まれ前記第2の参照ピクチャリストに対応する前記動きベクトルをスケーリングするステップと
    を実行することによって、前記動き情報候補リスト決定ユニットによって取得される、請求項28に記載の装置。
  30. 前記動き情報候補リストの中に4つのオリジナル併合候補があり、
    それに対応して、前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャであり、または、
    前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補において最も頻繁に使用されるオリジナル併合候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小の参照ピクチャインデックス識別子を有するオリジナル併合候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記オリジナル併合候補の中で最小のインデックス識別子を有するオリジナル併合候補の参照ピクチャである、請求項29に記載の装置。
  31. 前記第1の参照リストに対応する、前記現在のピクチャブロックの前記第1の目標参照ピクチャを決定することに関して、前記動き情報候補リスト決定ユニットが、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定し、または、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R(たとえば、4)よりも大きい場合、前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定する
    ように特に構成される、請求項29に記載の装置。
  32. 前記第2の参照リストに対応する、前記現在のピクチャブロックの前記第2の目標参照ピクチャを決定することに関して、前記動き情報候補リスト決定ユニットが、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量R以下である場合、前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定し、または、
    前記動き情報候補リストの中の動き情報候補の数量があらかじめ設定された量Rよりも大きい場合、前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記動き情報候補リストの中の最初のR個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記動き情報候補リストの中の前記最初のR個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定する
    ように特に構成される、請求項29に記載の装置。
  33. 前記第1の参照リストに対応する、前記現在のピクチャブロックの前記第1の目標参照ピクチャ、および/もしくは、前記第2の参照リストに対応する、前記現在のピクチャブロックの前記第2の目標参照ピクチャを決定することに関して、前記動き情報候補リスト決定ユニットが、
    前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、合成されるべき前記P個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第1の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定し、かつ/または、
    前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、合成されるべき前記P個もしくはM個の動き情報候補において最も頻繁に使用される動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小の参照ピクチャインデックス識別子を有する動き情報候補の参照ピクチャ、もしくは、前記第2の参照リストに対応する、前記P個もしくはM個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャであると決定する
    ように特に構成される、請求項29に記載の装置。
  34. 前記予測ユニットが、前記現在のピクチャブロックの前記動き情報として前記目標動き情報を使用するように特に構成される、請求項19から33のいずれか一項に記載の装置。
  35. 前記動き情報が動きベクトル予測を含み、
    前記予測ユニットが、
    ビットストリームを解析して、前記現在のピクチャブロックの動きベクトル予測差分を取得し、
    前記目標動き情報の中の前記動きベクトル予測と前記動きベクトル予測差分との合計を前記現在のピクチャブロックの動きベクトルとして使用する
    ように特に構成される、請求項19から33のいずれか一項に記載の装置。
  36. 前記装置が、前記現在のピクチャブロックを符号化するように構成され、前記目標動き情報決定ユニットが、前記動き情報候補リストの中の前記目標動き情報を決定するように特に構成され、前記目標動き情報を使用することによって前記現在のピクチャブロックを符号化するためのレートひずみコストが最小限であり、または、
    前記装置が、前記現在のピクチャブロックを復号するように構成され、前記目標動き情報決定ユニットが、前記動き情報候補リストの中の、第5のインデックス識別子によって示される目標動き情報を決定するように特に構成され、前記第5のインデックス識別子が、前記動き情報候補リストの中の前記目標動き情報を示すために使用される、請求項19から35のいずれか一項に記載の装置。
  37. ピクチャブロックを符号化するように構成されるビデオエンコーダであって、
    請求項19から35のいずれか一項に記載のピクチャブロックの動き情報を予測するための装置を備えるインター予測器であって、目標動き情報に基づいて現在の符号化ブロックの動き情報を予測し、前記現在の符号化ブロックの前記動き情報に基づいて前記現在の符号化ブロックの予測ブロックを決定するように構成されるインター予測器と、
    前記目標動き情報のインデックス識別子をビットストリームへと符号化するように構成されるエントロピーエンコーダであって、前記インデックス識別子が、前記現在の符号化ブロックのために使用される前記目標動き情報を示すために使用される、エントロピーエンコーダと、
    前記予測ブロックに基づいて前記ピクチャブロックを再構築するように構成される再構築器と
    を備えるビデオエンコーダ。
  38. ピクチャブロックを符号化するように構成されるビデオエンコーダであって、
    請求項19から35のいずれか一項に記載のピクチャブロックの動き情報を予測するための装置を備えるイントラ予測器であって、目標動き情報に基づいて現在の符号化ブロックのイントラ動き情報を予測し、前記現在の符号化ブロックの前記イントラ動き情報に基づいて前記現在の符号化ブロックのイントラ予測ブロックを決定するように構成されるイントラ予測器と、
    前記目標動き情報のインデックス識別子をビットストリームへと符号化するように構成されるエントロピーエンコーダであって、前記インデックス識別子が、前記現在の符号化ブロックのために使用される前記目標動き情報を示すために使用される、エントロピーエンコーダと、
    前記イントラ予測ブロックに基づいて前記ピクチャブロックを再構築するように構成される再構築器と
    を備えるビデオエンコーダ。
  39. ビットストリームを復号してピクチャブロックを取得するように構成されるビデオデコーダであって、
    ビットストリームを復号してインデックス識別子を取得するように構成されるエントロピーデコーダであって、前記インデックス識別子が、現在の復号ブロックのための目標動き情報を示すために使用される、エントロピーデコーダと、
    請求項19から35のいずれか一項に記載のピクチャブロックの動き情報を予測するための装置を備えるインター予測器であって、前記インデックス識別子によって示される前記目標動き情報に基づいて前記現在の復号ブロックの動き情報を予測し、前記現在の復号ブロックの前記動き情報に基づいて前記現在の復号ブロックの予測ブロックを決定するように構成されるインター予測器と、
    前記予測ブロックに基づいて前記ピクチャブロックを再構築するように構成される再構築器と
    を備えるビデオデコーダ。
  40. ビットストリームを復号してピクチャブロックを取得するように構成されるビデオデコーダであって、
    ビットストリームを復号してインデックス識別子を取得するように構成されるエントロピーデコーダであって、前記インデックス識別子が、現在の復号ブロックのための目標動き情報を示すために使用される、エントロピーデコーダと、
    請求項19から35のいずれか一項に記載のピクチャブロックの動き情報を予測するための装置を備えるイントラ予測器であって、前記インデックス識別子によって示される前記目標動き情報に基づいて前記現在の復号ブロックのイントラ動き情報を予測し、前記現在の復号ブロックの前記イントラ動き情報に基づいて前記現在の復号ブロックのイントラ予測ブロックを決定するように構成されるイントラ予測器と、
    前記イントラ予測ブロックに基づいて前記ピクチャブロックを再構築するように構成される再構築器と
    を備えるビデオデコーダ。
  41. ピクチャブロックの動き情報を予測するための方法であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記方法が、
    第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、前記現在のピクチャブロックの第2の目標参照ピクチャを決定するステップと、
    P個または(P-1)個の動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが前記第1の目標参照ピクチャと同じであるかどうか、および/もしくは、前記P個または(P-1)個の動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが前記第2の目標参照ピクチャと同じであるかどうかを決定するステップと、
    前記P個または(P-1)個の動き情報候補に含まれ前記第1の参照リストに対応する前記参照ピクチャが前記第1の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり前記第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ前記第1の参照ピクチャリストに対応する動きベクトルを重み付けするステップ、および/または、
    前記P個または(P-1)個の動き情報候補に含まれ前記第2の参照リストに対応する前記参照ピクチャが前記第2の目標参照ピクチャと同じである場合、前記第1の合成された動き情報候補の中にあり前記第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ前記第2の参照ピクチャリストに対応する動きベクトルを重み付けするステップと、
    前記現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定するステップであって、前記動き情報候補リストが、前記第1の合成された動き情報候補を含む、ステップと、
    前記目標動き情報に基づいて前記現在のピクチャブロックの動き情報を予測するステップと
    を含む、方法。
  42. 前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、前記(P-1)個の動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが前記第1の目標参照ピクチャと同じであるかどうかが決定され、または、
    前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、前記(P-1)個の動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが前記第2の目標参照ピクチャと同じであるかどうかが決定される、請求項41に記載の方法。
  43. ピクチャブロックの動き情報を予測するための装置であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記装置が、プロセッサと、前記プロセッサに接続されるメモリとを備え、
    前記プロセッサが、
    第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、前記現在のピクチャブロックの第2の目標参照ピクチャを決定することと、
    P個または(P-1)個の動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが前記第1の目標参照ピクチャと同じであるかどうか、および/もしくは、前記P個または(P-1)個の動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが前記第2の目標参照ピクチャと同じであるかどうかを決定することと、
    前記P個または(P-1)個の動き情報候補に含まれ前記第1の参照リストに対応する前記参照ピクチャが前記第1の目標参照ピクチャと同じである場合、第1の合成された動き情報候補の中にあり前記第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ前記第1の参照ピクチャリストに対応する動きベクトルを重み付けすること、および/または、
    前記P個または(P-1)個の動き情報候補に含まれ前記第2の参照リストに対応する前記参照ピクチャが前記第2の目標参照ピクチャと同じである場合、前記第1の合成された動き情報候補の中にあり前記第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ前記第2の参照ピクチャリストに対応する動きベクトルを重み付けすることと、
    前記現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定することであって、前記動き情報候補リストが、前記第1の合成された動き情報候補を含む、ことと、
    目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することと
    を行うように構成される、装置。
  44. 前記第1の目標参照ピクチャが、前記第1の参照リストに対応する、前記P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、前記(P-1)個の動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが前記第1の目標参照ピクチャと同じであるかどうかが決定され、または、
    前記第2の目標参照ピクチャが、前記第2の参照リストに対応する、前記P個の動き情報候補の中で最小のインデックス識別子を有する動き情報候補の参照ピクチャである場合、前記(P-1)個の動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが前記第2の目標参照ピクチャと同じであるかどうかが決定される、請求項43に記載の装置。
  45. ピクチャブロックの動き情報を予測するための方法であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記方法が、
    第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、前記現在のピクチャブロックの第2の目標参照ピクチャを決定するステップと、
    第1の合成された動き情報候補の中にあり前記第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ前記第1の参照ピクチャリストに対応する動きベクトルを重み付けするステップであって、前記P個の動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが、前記第1の目標参照ピクチャと同じである、ステップ、および/または、
    前記第1の合成された動き情報候補の中にあり前記第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ前記第2の参照ピクチャリストに対応する動きベクトルを重み付けするステップであって、前記P個の動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが、前記第2の目標参照ピクチャと同じである、ステップと、
    前記現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定するステップであって、前記動き情報候補リストが、前記第1の合成された動き情報候補を含む、ステップと、
    前記目標動き情報に基づいて前記現在のピクチャブロックの動き情報を予測するステップと
    を含む、方法。
  46. ピクチャブロックの動き情報を予測するための装置であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記装置が、プロセッサと、前記プロセッサに接続されるメモリとを備え、
    前記プロセッサが、
    第1の参照リストに対応する、現在のピクチャブロックの第1の目標参照ピクチャ、および/もしくは、第2の参照リストに対応する、前記現在のピクチャブロックの第2の目標参照ピクチャを決定することと、
    第1の合成された動き情報候補の中にあり前記第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ前記第1の参照ピクチャリストに対応する動きベクトルを重み付けすることであって、前記P個の動き情報候補に含まれ前記第1の参照リストに対応する参照ピクチャが、前記第1の目標参照ピクチャと同じである、こと、および/または、
    前記第1の合成された動き情報候補の中にあり前記第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ前記第2の参照ピクチャリストに対応する動きベクトルを重み付けすることであって、前記P個の動き情報候補に含まれ前記第2の参照リストに対応する参照ピクチャが、前記第2の目標参照ピクチャと同じである、ことと、
    前記現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定することであって、前記動き情報候補リストが、前記第1の合成された動き情報候補を含む、ことと、
    目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することと
    を行うように構成される、装置。
  47. ピクチャブロックの動き情報を予測するための方法であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記方法が、
    第1の合成された動き情報候補の中にあり前記第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けするステップと、
    第1の合成された動き情報候補の中にあり前記第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けするステップと、
    現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定するステップであって、前記動き情報候補リストが、前記第1の合成された動き情報候補を含む、ステップと、
    前記目標動き情報に基づいて前記現在のピクチャブロックの動き情報を予測するステップと
    を含む、方法。
  48. ピクチャブロックの動き情報を予測するための装置であって、前記動き情報がイントラ予測またはインター予測のために使用され、前記装置が、プロセッサと、前記プロセッサに接続されるメモリとを備え、
    前記プロセッサが、
    第1の合成された動き情報候補の中にあり前記第1の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、P個の動き情報候補に含まれ第1の参照ピクチャリストに対応する動きベクトルを重み付けすることと、
    第1の合成された動き情報候補の中にあり前記第2の参照ピクチャリストに対応する動きベクトルを取得するために、対応する重み付け係数を使用することによって、前記P個の動き情報候補に含まれ第2の参照ピクチャリストに対応する動きベクトルを重み付けすることと、
    現在のピクチャブロックの動き情報候補リストの中の目標動き情報を決定することであって、前記動き情報候補リストが、前記第1の合成された動き情報候補を含む、ことと、
    目標動き情報に基づいて現在のピクチャブロックの動き情報を予測することと
    を行うように構成される、装置。
JP2020535069A 2017-12-23 2018-09-21 ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダ Pending JP2021507639A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711411690.X 2017-12-23
CN201711411690.XA CN109963155B (zh) 2017-12-23 2017-12-23 图像块的运动信息的预测方法、装置及编解码器
PCT/CN2018/107094 WO2019119909A1 (zh) 2017-12-23 2018-09-21 图像块的运动信息的预测方法、装置及编解码器

Publications (1)

Publication Number Publication Date
JP2021507639A true JP2021507639A (ja) 2021-02-22

Family

ID=66993054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020535069A Pending JP2021507639A (ja) 2017-12-23 2018-09-21 ピクチャブロックの動き情報を予測するための方法および装置、エンコーダ、ならびにデコーダ

Country Status (7)

Country Link
US (2) US11297326B2 (ja)
EP (1) EP3731526A4 (ja)
JP (1) JP2021507639A (ja)
KR (1) KR20200108856A (ja)
CN (2) CN109963155B (ja)
BR (1) BR112020012732A2 (ja)
WO (2) WO2019119909A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019182295A1 (ko) * 2018-03-19 2019-09-26 주식회사 케이티 비디오 신호 처리 방법 및 장치
JP7104186B2 (ja) 2018-06-05 2022-07-20 北京字節跳動網絡技術有限公司 Ibcとatmvpとの間でのインタラクション
TWI729422B (zh) 2018-06-21 2021-06-01 大陸商北京字節跳動網絡技術有限公司 色彩分量間的子區塊移動向量繼承
CN110636298B (zh) 2018-06-21 2022-09-13 北京字节跳动网络技术有限公司 对于Merge仿射模式和非Merge仿射模式的统一约束
KR20240007299A (ko) 2018-06-29 2024-01-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 룩업 테이블의 업데이트: fifo, 제약된 fifo
KR102646649B1 (ko) 2018-06-29 2024-03-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
KR102611261B1 (ko) 2018-06-29 2023-12-08 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 업데이트 대상 lut 또는 비업데이트 lut의 구별
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
WO2020008350A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
GB2591906B (en) 2018-09-24 2023-03-08 Beijing Bytedance Network Tech Co Ltd Bi-prediction with weights in video coding and decoding
CN112997480B (zh) 2018-11-10 2023-08-22 北京字节跳动网络技术有限公司 成对平均候选计算中的取整
WO2020143741A1 (en) 2019-01-10 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Invoke of lut updating
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN110460859B (zh) * 2019-08-21 2022-03-25 浙江大华技术股份有限公司 历史运动矢量列表的使用方法、编解码器及存储装置
CN112449180B (zh) * 2019-08-27 2023-02-28 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN110611820A (zh) * 2019-09-11 2019-12-24 北京达佳互联信息技术有限公司 视频编码方法、装置、电子设备及存储介质
CN110636311B (zh) * 2019-09-18 2021-10-15 浙江大华技术股份有限公司 运动矢量的获取方法及相关预测方法、装置
WO2021056214A1 (zh) * 2019-09-24 2021-04-01 Oppo广东移动通信有限公司 编码方法、解码方法、编码器、解码器以及存储介质
AU2020363130A1 (en) * 2019-10-10 2022-05-05 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for simplifying signalling picture header
CN113709484B (zh) * 2020-03-26 2022-12-23 杭州海康威视数字技术股份有限公司 解码方法、编码方法、装置、设备及机器可读存储介质
CN113709498B (zh) * 2020-05-20 2023-06-02 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN113766245A (zh) * 2020-06-05 2021-12-07 Oppo广东移动通信有限公司 帧间预测方法、解码器、编码器及计算机存储介质
CN114071159B (zh) * 2020-07-29 2023-06-30 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器及计算机可读存储介质
CN113709499B (zh) * 2020-08-20 2022-12-23 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN112905817B (zh) * 2021-05-08 2021-07-06 深圳市安软科技股份有限公司 基于排序算法的图像检索方法、装置及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130107958A1 (en) * 2011-10-31 2013-05-02 Fujitsu Limited Video decoding apparatus and method
JPWO2013018369A1 (ja) * 2011-08-03 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および、動画像符号化復号化装置
JP2015508952A (ja) * 2012-01-31 2015-03-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated 並列動き推定範囲サイズの暗黙的導出
JP2016036186A (ja) * 2011-01-07 2016-03-17 株式会社Nttドコモ 動きベクトルの予測復号方法、および予測復号装置
WO2017076221A1 (en) * 2015-11-05 2017-05-11 Mediatek Inc. Method and apparatus of inter prediction using average motion vector for video coding

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9161057B2 (en) 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
CN101610413B (zh) * 2009-07-29 2011-04-27 清华大学 一种视频的编码/解码方法及装置
ES2886357T3 (es) * 2011-06-27 2021-12-17 Samsung Electronics Co Ltd Codificación y decodificación de información de movimiento
CN105430390B (zh) * 2011-06-30 2017-04-12 Jvc建伍株式会社 图像解码装置、图像解码方法、接收装置及接收方法
JP2013018369A (ja) 2011-07-11 2013-01-31 Kinki Sharyo Co Ltd 鉄道車両の構体構造
KR20130050405A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 시간 후보자 결정방법
EP2805506A4 (en) * 2012-01-20 2015-09-16 Nokia Technologies Oy VIDEO ENCODING METHOD AND APPARATUS, COMPUTER PROGRAM PRODUCT, CORRESPONDING SYSTEM AND MODULE
CN103916673B (zh) * 2013-01-06 2017-12-22 华为技术有限公司 基于双向预测的编码方法、解码方法和装置
GB2514334B (en) * 2013-05-13 2020-04-22 Snell Advanced Media Ltd Video processing
CN107079161B (zh) * 2014-09-01 2020-11-20 寰发股份有限公司 用于屏幕内容以及视频编码的帧内图片块复制的方法
EP3189660B1 (en) * 2014-09-30 2023-07-12 HFI Innovation Inc. Method of adaptive motion vector resolution for video coding
WO2016056822A1 (ko) * 2014-10-08 2016-04-14 엘지전자 주식회사 3d 비디오 코딩 방법 및 장치
US20180131943A1 (en) * 2015-04-27 2018-05-10 Lg Electronics Inc. Method for processing video signal and device for same
WO2017105097A1 (ko) * 2015-12-17 2017-06-22 삼성전자 주식회사 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
KR102480191B1 (ko) * 2016-05-13 2022-12-21 브이아이디 스케일, 인크. 비디오 코딩을 위한 일반화된 다중-가설 예측 시스템 및 방법
CN116567261A (zh) * 2016-05-24 2023-08-08 韩国电子通信研究院 图像编码/解码方法和用于所述方法的记录介质
CN116567224A (zh) * 2016-08-11 2023-08-08 Lx 半导体科技有限公司 图像编码/解码方法和图像数据的发送方法
US10715827B2 (en) * 2017-01-06 2020-07-14 Mediatek Inc. Multi-hypotheses merge mode
US20180310017A1 (en) * 2017-04-21 2018-10-25 Mediatek Inc. Sub-prediction unit temporal motion vector prediction (sub-pu tmvp) for video coding

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016036186A (ja) * 2011-01-07 2016-03-17 株式会社Nttドコモ 動きベクトルの予測復号方法、および予測復号装置
JPWO2013018369A1 (ja) * 2011-08-03 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および、動画像符号化復号化装置
US20130107958A1 (en) * 2011-10-31 2013-05-02 Fujitsu Limited Video decoding apparatus and method
JP2013098745A (ja) * 2011-10-31 2013-05-20 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
JP2015508952A (ja) * 2012-01-31 2015-03-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated 並列動き推定範囲サイズの暗黙的導出
WO2017076221A1 (en) * 2015-11-05 2017-05-11 Mediatek Inc. Method and apparatus of inter prediction using average motion vector for video coding

Also Published As

Publication number Publication date
EP3731526A4 (en) 2020-12-30
EP3731526A1 (en) 2020-10-28
US11297326B2 (en) 2022-04-05
CN109963155B (zh) 2023-06-06
US20220345716A1 (en) 2022-10-27
WO2019120305A1 (zh) 2019-06-27
US20200396462A1 (en) 2020-12-17
CN109963155A (zh) 2019-07-02
WO2019119909A1 (zh) 2019-06-27
KR20200108856A (ko) 2020-09-21
CN111512630A (zh) 2020-08-07
BR112020012732A2 (pt) 2020-12-01

Similar Documents

Publication Publication Date Title
US11297326B2 (en) Method and apparatus for predicting motion information of picture block, encoder, and decoder
CA2847849C (en) Motion vector determination for video coding
US9432685B2 (en) Scalable implementation for parallel motion estimation regions
WO2019147826A1 (en) Advanced motion vector prediction speedups for video coding
US20130188715A1 (en) Device and methods for merge list reordering in video coding
EP3357247A1 (en) Improved video intra-prediction using position-dependent prediction combination for video coding
WO2013040394A1 (en) Hybrid motion vector coding modes for video coding
WO2013119937A1 (en) Restriction of prediction units in b slices to uni-directional inter prediction
KR20150076235A (ko) 비디오 코딩을 위한 참조 화상 상태
US11765378B2 (en) Video coding method and apparatus
US11563949B2 (en) Motion vector obtaining method and apparatus, computer device, and storage medium
WO2014036162A1 (en) Intra prediction most probable mode order improvement for scalable video coding
CN117499671A (zh) 一种视频图像预测方法及装置
EP2810442A1 (en) Implicit derivation of parallel motion estimation range size
US11394996B2 (en) Video coding method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220425