JP2018506908A - サブ予測ユニットベース高度時間動きベクトル予測 - Google Patents
サブ予測ユニットベース高度時間動きベクトル予測 Download PDFInfo
- Publication number
- JP2018506908A JP2018506908A JP2017538966A JP2017538966A JP2018506908A JP 2018506908 A JP2018506908 A JP 2018506908A JP 2017538966 A JP2017538966 A JP 2017538966A JP 2017538966 A JP2017538966 A JP 2017538966A JP 2018506908 A JP2018506908 A JP 2018506908A
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- block
- motion vector
- atmvp
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 484
- 230000002123 temporal effect Effects 0.000 title claims abstract description 187
- 238000000034 method Methods 0.000 claims description 145
- 238000003860 storage Methods 0.000 claims description 49
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 description 43
- 238000013139 quantization Methods 0.000 description 24
- 238000005192 partition Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 238000013138 pruning Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 238000009795 derivation Methods 0.000 description 9
- 238000000638 solvent extraction Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000001174 ascending effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 102100027397 Cilia- and flagella-associated protein 100 Human genes 0.000 description 1
- 102100022183 E3 ubiquitin-protein ligase MIB1 Human genes 0.000 description 1
- 101000725206 Homo sapiens Cilia- and flagella-associated protein 100 Proteins 0.000 description 1
- 101000973503 Homo sapiens E3 ubiquitin-protein ligase MIB1 Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
・1つの16×16MB区分
・2つの16×8MB区分
・2つの8×16MB区分
・4つの8×8MB区分
[0030]1つのMB中の異なるMB区分は、各方向について異なる参照インデックス値(RefPicList0またはRefPicList1)を有し得る。
・1つの8×8サブブロック
・2つの8×4サブブロック
・2つの4×8サブブロック
・4つの4×4サブブロック
[0033]各サブブロックは、各方向に異なる動きベクトルを有することができる。したがって、動きベクトルは、サブブロックよりも高いか等しいレベルにおいて存在する。
1.ATMVP候補はTMVPのような追加の候補として挿入され得るが、そのようなATMVP候補の位置、ならびにより高いコーディング効率を達成するためのTMVP候補との相互作用は、知られていない。
2.ATMVP候補の利用可能性をどのように定義すべきかは明らかでなく、それは、ATMVP候補が利用不可能であり、したがってATMVP候補に挿入され得るかどうかを決定するためにすべてのサブPUのすべての動きベクトルが検査されるべきである場合、極めて複雑であろう。
3.ATMVP候補を用いたプルーニングプロセスが必要とされ得るが、そのような候補を用いたプルーニングは複雑であり得る。
4.コーディング効率と複雑さとの間の最良のトレードオフを達成するための、ATMVP候補のための様々な他の設計詳細は、未知のままである。
a.空間候補およびTMVP候補が、ある順序でマージ候補リストに挿入されると仮定する。ATMVP候補は、それらの候補の任意の比較的固定された位置中に挿入され得る。
[0075]atmvp_sub_pu_sizeがSPS中に存在し得る。
[0088]変数mtSrcPOCを、TMVPにおいて使用されるコロケートされたピクチャのPOC値に設定し、tVをゼロベクトルに設定し、atmvpAvaFlagは0に設定される。
・現在スライスがBスライスである場合、両端値を含む、dir〜(1−dir)に等しいXについて、または、現在スライスがBスライスでない場合、ただ0に等しいXについて、以下が適用される。
・tVがMVLX[N]に等しく設定される、
・atmvpAvaFlagが1に設定される、
・このプロセスを終了する。
ピクチャのリストを、空のリストであるべきCanPicATMVPであるように設定する。
CanPicATMVP[0]が、mtSrcPOCに等しいPOC値をもつピクチャであるように設定される。
iが1に等しく設定される、
MotionSrcPicは、空のピクチャであり、以下で指定されているように更新され得る。
利用可能な参照ピクチャリストXの各々について、以下が適用される。
・現在スライスがBスライスである場合、両端値を含む、dir〜(1−dir)に等しいXについて、または、現在スライスがBスライスでない場合、ただ0に等しいXについて、以下が適用される。
・CanPicATMVP[i++]=RefPicListX[idx];
(CurrPosX,CurrPosY)を現在PUの左上ピクセル位置の座標とする。
両端値を含む、0〜iに等しいnについて、以下が適用される。
・他の場合(nが0に等しい)、tScaledVectorはtVに等しく設定される。
・centerPosY=CurrPosY+=((tScaledVector[1]+2)>>2);
・(centerPosX,centerPosY)を、中心サブPUの対応するブロックを識別する位置とし、現在PUサイズを、幅×高さとする。
(min(spuWidth, width)>>1);
・centerPosY+=CurrPosX+((height/spuHeight)>>1)*spuHeight+
(min(spuHeight, height)>>1);
・入力として、CanPicATMVP[n]に等しいピクチャmtnSrcPic、および(centerPosX,centerPosY)に等しい位置(posX,posY)をもつ、ならびに、出力として、サブPU動き利用可能フラグSubPuMtnAvaFlag、参照インデックスsColRefIdx0とsColRefIdx1とのペア、および動きベクトル、sColMV0、sColMV1のペアをもつ、動き情報を捕捉する動き情報フェッチングプロセスを呼び出す。
・tVがtScaledVectorであるように設定される
・このループを終了する。
このプロセスの入力は、ピクチャmtnSrcPicおよびそのピクチャを用いた位置(posX,posY)であり、このプロセスの出力は、動き利用可能フラグmtnAvaFlag、参照インデックスrefIdx0とrefIdx1とのペア、および動きベクトル、mv0、mv1のペアである。
(posX,posY)は、最初に、ピクチャmtnSrcPic内にあるようにクリッピングされる。
位置(posX,posY)を含んでいる、4×4(または動き情報を記憶している他の最も小さいサイズ)ブロックblkTが識別される。
mtnAvaFlagは0に等しく設定される。
blkTがイントラコーディングされず、それの動き情報が、blkTRefIdx0と、blkTRefIdx1と、blkTMv0と、blkTMv1とを含んでいる場合、以下が適用される。
・mvXがblkTMvXに等しく設定される
[0092]ATMVPのためのサブPU動きの生成:
SubPuMtnAvaFlagが1に等しい場合、以下のプロセスが呼び出される。
[以下、イタリック体のテキスト]
・tempPosX+=((tV[0’]+2)>>2);
・tempPosY+=((tV[l]+2)>>2);
・入力として、MotionSrcPicに等しいピクチャmtnSrcPic、および(tempPosX,tempPosY)に等しい位置(posX,posY)をもつ、ならびに、出力として、サブPU動き利用可能フラグcurrSubPuMtnAvaFlag、参照インデックスcurrSubRefIdx0とcurrSubRefIdx1とのペア、および動きベクトル、currSubMV0、currSubMV1のペアをもつ、動き情報を捕捉する動き情報フェッチングプロセスを呼び出す。
現在サブPUのための導出された参照インデックスおよび動きベクトルをcSpuRefIdxXおよびcSpuMVXとして示し、それらは以下のように導出される。
・cSpuMVXは、TMVPの場合と同様に、currSubMVXのスケーリングされたベクトルであるように設定される。
このATMVP候補のための(0または1に等しいXについての)動き情報の代表的セット、aRefIdxXおよびaMVXは、以下のように導出される:
・aRefIdxX=(cColRefIdxX>=0 ? 0:-1);
・aMVXは、TMVPの場合と同様に、cColMVXのスケーリングされたベクトルであるように設定される。
[以下、イタリック体のテキスト]
代替的に、動きフェッチングプロセスおよび動きスケーリングプロセスは、HEVCバージョン1のTMVPの場合と同じ(または同様)であり、すなわち、HEVCバージョン1のサブクローズ8.5.3.2.8:「コロケートされた動きベクトルのための導出プロセス」が、このサブセクション中のハイライトされたテキストに取って代わるために適用される。この場合、TMVP(サブクローズ8.5.3.2.8)の場合のような動きフェッチングプロセスおよび動きスケーリングプロセスが、(イタリック体のテキスト(なお、[以下、イタリック体のテキスト]と[以上、イタリック体のテキスト]とで囲まれた範囲にイタリック体で示されたテキストを示す。)によって示されるようなものを含む)上記で定義された動きフェッチングプロセスおよび動きスケーリングプロセスに取って代わる。
[以上、イタリック体のテキスト]
[0093]マージ候補リストへのATMVP候補の挿入:
[0094]SubPuMtnAvaFlagが1に等しいとき、ATMVP候補は、[以下、イタリック体のテキスト]A0(または代替的に[以上、イタリック体のテキスト]B0)候補がテストされ、場合によってはマージ候補リストに挿入された後、マージ候補に挿入される。
1.第1のステージにおけるベクトルは、現在PUの空間および時間隣接ブロックから導出され得る。
2.このプロセスは、すべての他のマージ候補のうちの1つのマージ候補をアクティブにすることとして達成され得る。
1.ベクトル導出の第1のステージはまた、ただゼロベクトルによって簡略化され得る。
2.ベクトル導出の第1のステージは、動きベクトルとそれの関連するピクチャとを一緒に識別することを含み得る。関連するピクチャを選択し、さらに、動きベクトルが第1ステージベクトルであると決める、様々な方法が提案されている。
3.上記のプロセス中の動き情報が利用不可能である場合、「第1ステージベクトル」は、置換のために使用される。
4.時間ネイバーから識別された動きベクトルは、TMVPにおける動きベクトルスケーリングと同様の方法で、現在サブPUのために使用されるようにスケーリングされなければならない。しかしながら、そのような動きベクトルがどの参照ピクチャにスケーリングされ得るかは、以下の方法のうちの1つを用いて設計され得る。
図10の例では、ビデオエンコーダ20がマージモードを使用して動き情報を符号化することを選んだと仮定される。概して、ビデオエンコーダ20(より詳細には、モード選択ユニット40)は、候補リスト中の候補のうちのどれが最良のレートひずみ特性を生じるかを決定し、ブロックを予測するために使用されるようにその候補を選択し得る。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を備える、方法。
[C2]
前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を備える、C1に記載の方法。
[C3]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定することを備える、C2に記載の方法。
[C4]
前記マージ候補リストを形成することは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成することを備える、C1に記載の方法。
[C5]
動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成することを備える、C4に記載の方法。
[C6]
動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成することを備える、C4に記載の方法。
[C7]
前記マージ候補リストを形成することは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を備える、C1に記載の方法。
[C8]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C7に記載の方法。
[C9]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C7に記載の方法。
[C10]
前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択することをさらに備える、C7に記載の方法。
[C11]
前記マージ候補リストを形成することは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を備える、C1に記載の方法。
[C12]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングする、C11に記載の方法。
[C13]
前記インデックスをコーディングすることは、前記インデックスを復号することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を備える、C1に記載の方法。
[C14]
前記インデックスをコーディングすることは、前記インデックスを符号化することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を備える、C1に記載の方法。
[C15]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータを記憶するように構成されたメモリと、
ビデオコーダと、を備え、前記ビデオコーダは、
前記ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行うように構成された、デバイス。
[C16]
前記マージ候補リストを形成するために、前記ビデオコーダは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行うように構成された、C15に記載のデバイス。
[C17]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するために、前記ビデオコーダは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するように構成された、C16に記載のデバイス。
[C18]
前記マージ候補リストを形成するために、前記ビデオコーダは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するように構成された、C15に記載のデバイス。
[C19]
動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するように構成された、C18に記載のデバイス。
[C20]
動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するように構成された、C18に記載のデバイス。
[C21]
前記マージ候補リストを形成するために、前記ビデオコーダは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行うように構成された、C15に記載のデバイス。
[C22]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C21に記載のデバイス。
[C23]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C21に記載のデバイス。
[C24]
前記ビデオコーダは、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するようにさらに構成された、C21に記載のデバイス。
[C25]
前記マージ候補リストを形成するために、前記ビデオコーダは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行うように構成された、C15に記載のデバイス。
[C26]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記ビデオコーダは、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定することと、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングすることとを行うように構成された、C25に記載のデバイス。
[C27]
前記ビデオコーダは、前記インデックスを復号するように構成されたビデオデコーダを備え、前記現在ブロックをコーディングするために、前記ビデオデコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行うように構成された、C15に記載のデバイス。
[C28]
前記ビデオコーダは、前記インデックスを符号化するように構成されたビデオエンコーダを備え、前記現在ブロックをコーディングするために、前記ビデオエンコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行うように構成された、C15に記載のデバイス。
[C29]
前記デバイスは、
集積回路、
マイクロプロセッサ、または
ワイヤレス通信デバイス、
のうちの少なくとも1つを備える、C15に記載のデバイス。
[C30]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成するための手段と、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングするための手段と、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングするための手段と、
を備える、デバイス。
[C31]
前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成するための手段と、
を備える、C30に記載のデバイス。
[C32]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための前記手段は、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するための手段を備える、C31に記載のデバイス。
[C33]
前記マージ候補リストを形成するための前記手段は、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するための手段を備える、C30に記載のデバイス。
[C34]
動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するための手段を備える、C33に記載のデバイス。
[C35]
動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するための手段を備える、C33に記載のデバイス。
[C36]
前記マージ候補リストを形成するための前記手段は、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加するための手段と、
前記第1のATMVP候補が利用可能でないとき、第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能でないとき、前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加するための手段と、
を備える、C30に記載のデバイス。
[C37]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C36に記載のデバイス。
[C38]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C36に記載のデバイス。
[C39]
前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するための手段をさらに備える、C36に記載のデバイス。
[C40]
前記マージ候補リストを形成するための前記手段は、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定するための手段と、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加するための手段と、
を備える、C30に記載のデバイス。
[C41]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングするための手段をさらに備える、C40に記載のデバイス。
[C42]
前記インデックスをコーディングするための前記手段は、前記インデックスを復号するための手段を備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックのための残差情報を復号するための手段と、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号するための手段と、
を備える、C30に記載のデバイス。
[C43]
前記インデックスをコーディングするための前記手段は、前記インデックスを符号化することを備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成するための手段と、
前記残差情報を符号化するための手段と、
を備える、C30に記載のデバイス。
[C44]
実行されたとき、プロセッサに、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[C45]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C46]
前記プロセッサに、動き情報が前記対応するブロックのために利用可能であるかどうかを決定させる前記命令は、前記プロセッサに、前記対応するブロックの一部分がイントラ予測されるかどうかを決定させる命令を備える、C45に記載のコンピュータ可読記憶媒体。
[C47]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成させる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C48]
前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成させる命令を備える、C47に記載のコンピュータ可読記憶媒体。
[C49]
前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成させる命令を備える、C47に記載のコンピュータ可読記憶媒体。
[C50]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C51]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C50に記載のコンピュータ可読記憶媒体。
[C52]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C50に記載のコンピュータ可読記憶媒体。
[C53]
前記プロセッサに、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択させる命令をさらに備える、C50に記載のコンピュータ可読記憶媒体。
[C54]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C55]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記命令は、前記プロセッサに、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定させ、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングさせる、C54に記載のコンピュータ可読記憶媒体。
[C56]
前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記プロセッサに前記インデックスを復号させる命令を備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C57]
前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記インデックスを符号化することを備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
Claims (57)
- ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を備える、方法。 - 前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を備える、請求項1に記載の方法。 - 動き情報が前記対応するブロックのために利用可能であるかどうかを決定することは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定することを備える、請求項2に記載の方法。
- 前記マージ候補リストを形成することは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成することを備える、請求項1に記載の方法。
- 動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成することを備える、請求項4に記載の方法。
- 動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成することを備える、請求項4に記載の方法。
- 前記マージ候補リストを形成することは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を備える、請求項1に記載の方法。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項7に記載の方法。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項7に記載の方法。
- 前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択することをさらに備える、請求項7に記載の方法。
- 前記マージ候補リストを形成することは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を備える、請求項1に記載の方法。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングする、請求項11に記載の方法。
- 前記インデックスをコーディングすることは、前記インデックスを復号することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を備える、請求項1に記載の方法。 - 前記インデックスをコーディングすることは、前記インデックスを符号化することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を備える、請求項1に記載の方法。 - ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータを記憶するように構成されたメモリと、
ビデオコーダと、を備え、前記ビデオコーダは、
前記ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行うように構成された、デバイス。 - 前記マージ候補リストを形成するために、前記ビデオコーダは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行うように構成された、請求項15に記載のデバイス。 - 動き情報が前記対応するブロックのために利用可能であるかどうかを決定するために、前記ビデオコーダは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するように構成された、請求項16に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するように構成された、請求項15に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するように構成された、請求項18に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するように構成された、請求項18に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項21に記載のデバイス。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項21に記載のデバイス。
- 前記ビデオコーダは、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するようにさらに構成された、請求項21に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記ビデオコーダは、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定することと、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングすることとを行うように構成された、請求項25に記載のデバイス。
- 前記ビデオコーダは、前記インデックスを復号するように構成されたビデオデコーダを備え、前記現在ブロックをコーディングするために、前記ビデオデコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記ビデオコーダは、前記インデックスを符号化するように構成されたビデオエンコーダを備え、前記現在ブロックをコーディングするために、前記ビデオエンコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行うように構成された、請求項15に記載のデバイス。 - 前記デバイスは、
集積回路、
マイクロプロセッサ、または
ワイヤレス通信デバイス、
のうちの少なくとも1つを備える、請求項15に記載のデバイス。 - ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成するための手段と、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングするための手段と、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングするための手段と、
を備える、デバイス。 - 前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成するための手段と、
を備える、請求項30に記載のデバイス。 - 動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための前記手段は、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するための手段を備える、請求項31に記載のデバイス。
- 前記マージ候補リストを形成するための前記手段は、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するための手段を備える、請求項30に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するための手段を備える、請求項33に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するための手段を備える、請求項33に記載のデバイス。
- 前記マージ候補リストを形成するための前記手段は、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加するための手段と、
前記第1のATMVP候補が利用可能でないとき、第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能でないとき、前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加するための手段と、
を備える、請求項30に記載のデバイス。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項36に記載のデバイス。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項36に記載のデバイス。
- 前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するための手段をさらに備える、請求項36に記載のデバイス。
- 前記マージ候補リストを形成するための前記手段は、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定するための手段と、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加するための手段と、
を備える、請求項30に記載のデバイス。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングするための手段をさらに備える、請求項40に記載のデバイス。
- 前記インデックスをコーディングするための前記手段は、前記インデックスを復号するための手段を備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックのための残差情報を復号するための手段と、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号するための手段と、
を備える、請求項30に記載のデバイス。 - 前記インデックスをコーディングするための前記手段は、前記インデックスを符号化することを備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成するための手段と、
前記残差情報を符号化するための手段と、
を備える、請求項30に記載のデバイス。 - 実行されたとき、プロセッサに、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行わせる命令を記憶したコンピュータ可読記憶媒体。 - 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記プロセッサに、動き情報が前記対応するブロックのために利用可能であるかどうかを決定させる前記命令は、前記プロセッサに、前記対応するブロックの一部分がイントラ予測されるかどうかを決定させる命令を備える、請求項45に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成させる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成させる命令を備える、請求項47に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成させる命令を備える、請求項47に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項50に記載のコンピュータ可読記憶媒体。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項50に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択させる命令をさらに備える、請求項50に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記命令は、前記プロセッサに、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定させ、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングさせる、請求項54に記載のコンピュータ可読記憶媒体。
- 前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記プロセッサに前記インデックスを復号させる命令を備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。 - 前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記インデックスを符号化することを備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行わせる命令を備える、請求項44に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562107933P | 2015-01-26 | 2015-01-26 | |
US62/107,933 | 2015-01-26 | ||
US15/005,564 US11477477B2 (en) | 2015-01-26 | 2016-01-25 | Sub-prediction unit based advanced temporal motion vector prediction |
US15/005,564 | 2016-01-25 | ||
PCT/US2016/014875 WO2016123081A1 (en) | 2015-01-26 | 2016-01-26 | Sub-prediction unit based advanced temporal motion vector prediction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018506908A true JP2018506908A (ja) | 2018-03-08 |
JP2018506908A5 JP2018506908A5 (ja) | 2019-02-14 |
JP6636530B2 JP6636530B2 (ja) | 2020-01-29 |
Family
ID=56433539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017538966A Active JP6636530B2 (ja) | 2015-01-26 | 2016-01-26 | サブ予測ユニットベース高度時間動きベクトル予測 |
Country Status (13)
Country | Link |
---|---|
US (1) | US11477477B2 (ja) |
EP (1) | EP3251361B1 (ja) |
JP (1) | JP6636530B2 (ja) |
KR (1) | KR102102029B1 (ja) |
CN (1) | CN107211156B (ja) |
BR (1) | BR112017015890B1 (ja) |
CA (1) | CA2971636C (ja) |
EA (1) | EA035270B1 (ja) |
ES (1) | ES2755573T3 (ja) |
HU (1) | HUE047034T2 (ja) |
TN (1) | TN2017000288A1 (ja) |
TW (1) | TWI696382B (ja) |
WO (1) | WO2016123081A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021502038A (ja) * | 2017-11-01 | 2021-01-21 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
JP2021516006A (ja) * | 2018-07-02 | 2021-06-24 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP2021517798A (ja) * | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP2021530165A (ja) * | 2018-07-02 | 2021-11-04 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
JP2022532670A (ja) * | 2019-05-17 | 2022-07-15 | 華為技術有限公司 | インター予測方法および装置 |
WO2024078331A1 (en) * | 2022-10-14 | 2024-04-18 | Mediatek Inc. | Method and apparatus of subblock-based motion vector prediction with reordering and refinement in video coding |
Families Citing this family (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10230980B2 (en) | 2015-01-26 | 2019-03-12 | Qualcomm Incorporated | Overlapped motion compensation for video coding |
US10187653B2 (en) * | 2015-05-18 | 2019-01-22 | Avago Technologies International Sales Pte. Limited | Motor vector prediction using co-located prediction units |
US10623767B2 (en) * | 2015-10-19 | 2020-04-14 | Lg Electronics Inc. | Method for encoding/decoding image and device therefor |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
CN109417629B (zh) * | 2016-07-12 | 2023-07-14 | 韩国电子通信研究院 | 图像编码/解码方法以及用于该方法的记录介质 |
US10721489B2 (en) | 2016-09-06 | 2020-07-21 | Qualcomm Incorporated | Geometry-based priority for the construction of candidate lists |
US10477238B2 (en) | 2016-09-07 | 2019-11-12 | Qualcomm Incorporated | Sub-PU based bi-directional motion compensation in video coding |
US10812791B2 (en) * | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
JP7048503B2 (ja) * | 2016-09-27 | 2022-04-05 | シャープ株式会社 | 復号装置、符号化装置、復号方法、および、符号化方法 |
CN106507111B (zh) * | 2016-11-17 | 2019-11-15 | 上海兆芯集成电路有限公司 | 使用残差补偿的视频编码方法以及使用该方法的装置 |
CN109983773A (zh) * | 2016-11-29 | 2019-07-05 | 联发科技股份有限公司 | 用于合并模式推导的视频编解码方法和装置 |
TWI681669B (zh) | 2017-04-21 | 2020-01-01 | 美商時美媒體公司 | 用於藉由預測運動向量及/或快取重複運動向量的玩家輸入運動補償的系統及方法 |
TWI646823B (zh) * | 2017-04-27 | 2019-01-01 | 晨星半導體股份有限公司 | 視訊壓縮方法及視訊壓縮裝置 |
KR20200012957A (ko) | 2017-06-30 | 2020-02-05 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인터-프레임 예측 방법 및 디바이스 |
WO2019074273A1 (ko) * | 2017-10-10 | 2019-04-18 | 한국전자통신연구원 | 인터 예측 정보를 사용하는 방법 및 장치 |
US11082716B2 (en) | 2017-10-10 | 2021-08-03 | Electronics And Telecommunications Research Institute | Method and device using inter prediction information |
US10785494B2 (en) * | 2017-10-11 | 2020-09-22 | Qualcomm Incorporated | Low-complexity design for FRUC |
US20190116374A1 (en) * | 2017-10-17 | 2019-04-18 | Qualcomm Incorporated | Coding motion information of video data using coding structure-based candidate list construction |
TWI795463B (zh) * | 2017-11-14 | 2023-03-11 | 美商高通公司 | 統一合併候選列表運用 |
TW201924349A (zh) * | 2017-11-17 | 2019-06-16 | 晨星半導體股份有限公司 | 與移動補償相關之影像處理裝置及影像處理方法 |
US10623746B2 (en) * | 2017-12-07 | 2020-04-14 | Tencent America LLC | Method and apparatus for video coding |
CN108347616B (zh) * | 2018-03-09 | 2020-02-14 | 中南大学 | 一种基于可选时域运动矢量预测的深度预测方法及装置 |
WO2019194502A1 (ko) * | 2018-04-01 | 2019-10-10 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
US10999604B2 (en) | 2018-04-13 | 2021-05-04 | Mediatek Inc. | Adaptive implicit transform setting |
US11297348B2 (en) * | 2018-04-13 | 2022-04-05 | Mediatek Inc. | Implicit transform settings for coding a block of pixels |
WO2019199141A1 (ko) * | 2018-04-13 | 2019-10-17 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인터 예측 방법 및 장치 |
US10397603B1 (en) * | 2018-05-08 | 2019-08-27 | Tencent America LLC | Method and apparatus for video coding |
CA3100970A1 (en) * | 2018-05-24 | 2019-11-28 | Kt Corporation | Method and apparatus for processing video signal |
US11109025B2 (en) * | 2018-06-04 | 2021-08-31 | Tencent America LLC | Method and apparatus for sub-block based temporal motion vector prediction |
CN118075486A (zh) | 2018-06-04 | 2024-05-24 | 华为技术有限公司 | 获取运动矢量的方法和装置 |
JP7104186B2 (ja) | 2018-06-05 | 2022-07-20 | 北京字節跳動網絡技術有限公司 | Ibcとatmvpとの間でのインタラクション |
CN110636298B (zh) | 2018-06-21 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 对于Merge仿射模式和非Merge仿射模式的统一约束 |
CN110636297B (zh) | 2018-06-21 | 2021-05-14 | 北京字节跳动网络技术有限公司 | 分量相关的子块分割 |
MX2021000129A (es) * | 2018-06-27 | 2021-03-25 | Vid Scale Inc | Métodos y aparato para reducir la latencia de codificación del refinamiento de movimiento lateral de decodificador. |
JP7460617B2 (ja) | 2018-06-29 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | Lut更新条件 |
JP7328330B2 (ja) | 2018-06-29 | 2023-08-16 | 北京字節跳動網絡技術有限公司 | Lutにおける動き候補のチェック順序 |
WO2020003284A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
EP3791585A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Partial/full pruning when adding a hmvp candidate to merge/amvp |
TWI719523B (zh) | 2018-06-29 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 哪個查找表需要更新或不更新 |
KR20210025537A (ko) | 2018-06-29 | 2021-03-09 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념 |
SG11202012293RA (en) | 2018-06-29 | 2021-01-28 | Beijing Bytedance Network Technology Co Ltd | Update of look up table: fifo, constrained fifo |
CN110662053B (zh) | 2018-06-29 | 2022-03-25 | 北京字节跳动网络技术有限公司 | 使用查找表的视频处理方法、装置和存储介质 |
CN110677669B (zh) | 2018-07-02 | 2021-12-07 | 北京字节跳动网络技术有限公司 | 具有lic的lut |
WO2020017861A1 (ko) * | 2018-07-16 | 2020-01-23 | 엘지전자 주식회사 | 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치 |
WO2020017892A1 (ko) * | 2018-07-17 | 2020-01-23 | 엘지전자 주식회사 | 서브블록 단위의 시간적 움직임 벡터 예측을 위한 방법 및 그 장치 |
KR20220048066A (ko) | 2018-07-18 | 2022-04-19 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 히스토리-기반 모션 벡터 예측을 사용한 비디오 코딩 방법 및 장치 |
US11943430B2 (en) * | 2018-07-27 | 2024-03-26 | Samsung Electronics Co., Ltd. | Method and device for encoding image and method and device for decoding image on basis of sub-block |
CN112514383B (zh) * | 2018-07-31 | 2023-12-19 | 寰发股份有限公司 | 用于视频编解码的利用运动向量差的合并方法和装置 |
CN110868601B (zh) * | 2018-08-28 | 2024-03-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
CN110868589B (zh) * | 2018-08-28 | 2023-10-20 | 华为技术有限公司 | 帧间预测方法、装置及其应用的编/解方法及装置 |
RU2757209C1 (ru) | 2018-08-29 | 2021-10-12 | Бейджинг Дацзя Интернет Информейшн Текнолоджи Ко., Лтд. | Способы и устройства для кодирования видео с использованием вектора движения временного предсказания на основе субблоков |
WO2020053800A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | How many hmvp candidates to be checked |
CN117560487A (zh) | 2018-09-12 | 2024-02-13 | Lg电子株式会社 | 解码设备、编码设备及发送图像的数据的设备 |
GB2579763B (en) * | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
WO2020060344A1 (ko) * | 2018-09-21 | 2020-03-26 | 엘지전자 주식회사 | 영상 신호를 처리하기 위한 방법 및 장치 |
US11595685B2 (en) * | 2018-09-21 | 2023-02-28 | Interdigital Vc Holdings, Inc. | Motion vector prediction in video encoding and decoding |
WO2020065518A1 (en) | 2018-09-24 | 2020-04-02 | Beijing Bytedance Network Technology Co., Ltd. | Bi-prediction with weights in video coding and decoding |
WO2020076069A1 (ko) * | 2018-10-08 | 2020-04-16 | 엘지전자 주식회사 | Atmvp 후보를 기반으로 영상 코딩을 수행하는 장치 |
WO2020075053A1 (en) | 2018-10-08 | 2020-04-16 | Beijing Bytedance Network Technology Co., Ltd. | Generation and usage of combined affine merge candidate |
GB2578150C (en) | 2018-10-18 | 2022-05-18 | Canon Kk | Video coding and decoding |
GB2595054B (en) | 2018-10-18 | 2022-07-06 | Canon Kk | Video coding and decoding |
WO2020084475A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Utilization of refined motion vector |
WO2020084553A1 (en) | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate derivation based on multiple information in sub-block motion vector prediction |
EP3847814A4 (en) * | 2018-11-06 | 2021-07-14 | Beijing Bytedance Network Technology Co. Ltd. | POSITION DEPENDENT STORAGE, MOVEMENT INFORMATION |
CN112997480B (zh) | 2018-11-10 | 2023-08-22 | 北京字节跳动网络技术有限公司 | 成对平均候选计算中的取整 |
CN117459722A (zh) | 2018-11-12 | 2024-01-26 | 北京字节跳动网络技术有限公司 | 组合帧间-帧内预测的简化 |
CN117880493A (zh) * | 2018-11-13 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 用于空域运动候选列表的构建方法 |
CN113273208A (zh) * | 2018-11-14 | 2021-08-17 | 北京字节跳动网络技术有限公司 | 仿射预测模式的改进 |
EP3861742A4 (en) | 2018-11-20 | 2022-04-13 | Beijing Bytedance Network Technology Co., Ltd. | DIFFERENCE CALCULATION BASED ON SPATIAL POSITION |
KR102660160B1 (ko) * | 2018-11-22 | 2024-04-24 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브 블록 기반 인터 예측을 위한 조정 방법 |
WO2020108650A1 (en) | 2018-11-29 | 2020-06-04 | Beijing Bytedance Network Technology Co., Ltd. | Flag indication method in intra block copy mode |
CN117880495A (zh) | 2018-12-03 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 候选的最大数量的指示方法 |
US11122288B2 (en) * | 2018-12-06 | 2021-09-14 | Qualcomm Incorporated | Spatio-temporal motion vector prediction patterns for video coding |
EP3716626A4 (en) * | 2018-12-12 | 2021-05-19 | LG Electronics Inc. | METHOD AND DEVICE FOR PROCESSING VIDEO SIGNAL BASED ON A TRANSFORM OF HISTORY-BASED MOTION VECTORS |
WO2020130520A1 (ko) * | 2018-12-16 | 2020-06-25 | 엘지전자 주식회사 | 화면간 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치 |
EP3903495A4 (en) * | 2018-12-28 | 2022-03-16 | Telefonaktiebolaget Lm Ericsson (Publ) | GENERATION OF A LIST OF MOTION VECTOR PREDICTORS |
JP2020108083A (ja) * | 2018-12-28 | 2020-07-09 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法及び画像符号化プログラム |
BR112021012462A2 (pt) * | 2018-12-29 | 2021-09-08 | Vid Scale, Inc. | Dispositivo e método de codificação de vídeo |
US11800089B2 (en) * | 2019-01-02 | 2023-10-24 | Lg Electronics Inc. | SbTMVP-based inter prediction method and apparatus |
CN111164976A (zh) * | 2019-01-03 | 2020-05-15 | 北京大学 | 视频处理方法和装置 |
CN111357288B (zh) * | 2019-01-03 | 2021-08-31 | 深圳市大疆创新科技有限公司 | 视频图像处理方法与装置 |
WO2020140243A1 (zh) | 2019-01-03 | 2020-07-09 | 北京大学 | 视频图像处理方法与装置 |
KR102648159B1 (ko) | 2019-01-10 | 2024-03-18 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut 업데이트의 호출 |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
US20200288175A1 (en) * | 2019-03-06 | 2020-09-10 | Qualcomm Incorporated | Signaling of triangle merge mode indexes in video coding |
WO2020177755A1 (en) | 2019-03-06 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Usage of converted uni-prediction candidate |
JP6897885B2 (ja) * | 2019-03-08 | 2021-07-07 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム |
WO2020182148A1 (en) * | 2019-03-11 | 2020-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Pair-wise motion candidate construction based on designated candidates |
CN112954329B (zh) | 2019-03-11 | 2022-08-26 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
JP7448558B2 (ja) * | 2019-03-15 | 2024-03-12 | インターデイジタル ヴィーシー ホールディングス インコーポレイテッド | 画像エンコーディングおよびデコーディングのための方法およびデバイス |
CN113615193A (zh) | 2019-03-22 | 2021-11-05 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
CN117714682A (zh) * | 2019-05-21 | 2024-03-15 | 北京字节跳动网络技术有限公司 | 子块Merge模式中的语法信令 |
CN114097228B (zh) | 2019-06-04 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 具有几何分割模式编解码的运动候选列表 |
EP3963890A4 (en) | 2019-06-04 | 2022-11-02 | Beijing Bytedance Network Technology Co., Ltd. | BUILDING A LIST OF MOVEMENT CANDIDATES USING NEIGHBOR BLOCK INFORMATION |
CN113994699B (zh) | 2019-06-06 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 视频编解码的运动候选列表构建 |
KR20230098705A (ko) * | 2019-06-07 | 2023-07-04 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 비디오 코딩을 위한 서브-블록 시간적 움직임 벡터 예측 |
CN114080812A (zh) * | 2019-06-13 | 2022-02-22 | Lg 电子株式会社 | 使用sbtmvp的基于帧间预测的图像或视频编译 |
MX2021014880A (es) * | 2019-06-13 | 2022-01-18 | Beijing Dajia Internet Information Tech Co Ltd | Prediccion de vector de movimiento para codificacion de video. |
CN112118447B (zh) * | 2019-06-19 | 2023-06-20 | 华为技术有限公司 | 融合候选运动信息列表的构建方法、装置及编解码器 |
KR20240036121A (ko) * | 2019-06-24 | 2024-03-19 | 엘지전자 주식회사 | 영상 디코딩 방법 및 그 장치 |
EP3987797A4 (en) * | 2019-06-24 | 2023-03-22 | FG Innovation Company Limited | DEVICE AND METHOD FOR ENCODING VIDEO DATA |
EP3984215A4 (en) | 2019-07-14 | 2022-08-24 | Beijing Bytedance Network Technology Co., Ltd. | TRANSFORM BLOCK SIZE RESTRICTION IN VIDEO CODING |
CN114208184A (zh) | 2019-08-13 | 2022-03-18 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测中的运动精度 |
CN110740317B (zh) * | 2019-09-18 | 2021-10-15 | 浙江大华技术股份有限公司 | 子块运动预测、编码方法、编码器及存储装置 |
CN114424553A (zh) | 2019-09-22 | 2022-04-29 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测的缩放方法 |
WO2021057996A1 (en) | 2019-09-28 | 2021-04-01 | Beijing Bytedance Network Technology Co., Ltd. | Geometric partitioning mode in video coding |
JP2022541687A (ja) * | 2019-10-10 | 2022-09-26 | ベイジン、ターチア、インターネット、インフォメーション、テクノロジー、カンパニー、リミテッド | 三角分割を用いたビデオ符号化の方法および装置 |
CN110691253B (zh) * | 2019-10-17 | 2022-03-01 | 北京大学深圳研究生院 | 一种基于帧间预测的编解码方法及装置 |
CN117676135A (zh) | 2019-10-18 | 2024-03-08 | 北京字节跳动网络技术有限公司 | 子图片与环路滤波之间的相互影响 |
EP4082202A4 (en) * | 2019-12-24 | 2023-05-10 | Beijing Dajia Internet Information Technology Co., Ltd. | MOTION ESTIMATION AREA FOR MERGER CANDIDATES |
US11375231B2 (en) * | 2020-01-14 | 2022-06-28 | Tencent America LLC | Method and apparatus for video coding |
US20230104476A1 (en) * | 2021-10-05 | 2023-04-06 | Tencent America LLC | Grouping based adaptive reordering of merge candidate |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013067938A1 (en) * | 2011-11-07 | 2013-05-16 | LI, Yingjin | Method of constructing merge list |
WO2014055833A1 (en) * | 2012-10-04 | 2014-04-10 | Qualcomm Incorporated | Inter-view predicted motion vector for 3d video |
WO2015048459A1 (en) * | 2013-09-26 | 2015-04-02 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120287999A1 (en) | 2011-05-11 | 2012-11-15 | Microsoft Corporation | Syntax element prediction in error correction |
CN103931196B (zh) | 2011-09-09 | 2017-05-17 | Lg电子株式会社 | 帧间预测方法及其装置 |
US9736489B2 (en) * | 2011-09-17 | 2017-08-15 | Qualcomm Incorporated | Motion vector determination for video coding |
US9571833B2 (en) | 2011-11-04 | 2017-02-14 | Nokia Technologies Oy | Method for coding and an apparatus |
US9729873B2 (en) | 2012-01-24 | 2017-08-08 | Qualcomm Incorporated | Video coding using parallel motion estimation |
US9325990B2 (en) | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
CN103841425B (zh) | 2012-10-08 | 2017-04-05 | 华为技术有限公司 | 用于运动矢量预测的运动矢量列表建立的方法、装置 |
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
-
2016
- 2016-01-25 US US15/005,564 patent/US11477477B2/en active Active
- 2016-01-26 TN TNP/2017/000288A patent/TN2017000288A1/en unknown
- 2016-01-26 HU HUE16705364A patent/HUE047034T2/hu unknown
- 2016-01-26 EP EP16705364.4A patent/EP3251361B1/en active Active
- 2016-01-26 ES ES16705364T patent/ES2755573T3/es active Active
- 2016-01-26 EA EA201791449A patent/EA035270B1/ru unknown
- 2016-01-26 WO PCT/US2016/014875 patent/WO2016123081A1/en active Application Filing
- 2016-01-26 JP JP2017538966A patent/JP6636530B2/ja active Active
- 2016-01-26 TW TW105102383A patent/TWI696382B/zh active
- 2016-01-26 BR BR112017015890-6A patent/BR112017015890B1/pt active IP Right Grant
- 2016-01-26 CN CN201680006068.8A patent/CN107211156B/zh active Active
- 2016-01-26 CA CA2971636A patent/CA2971636C/en active Active
- 2016-01-26 KR KR1020177020567A patent/KR102102029B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013067938A1 (en) * | 2011-11-07 | 2013-05-16 | LI, Yingjin | Method of constructing merge list |
WO2014055833A1 (en) * | 2012-10-04 | 2014-04-10 | Qualcomm Incorporated | Inter-view predicted motion vector for 3d video |
WO2015048459A1 (en) * | 2013-09-26 | 2015-04-02 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
Non-Patent Citations (1)
Title |
---|
JIANLE CHEN ET AL.: "Algorithm Description of Joint Exploration Test Model 1", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 1ND MEETING: G, JPN6019044043, 24 February 2016 (2016-02-24), ISSN: 0004152131 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021502038A (ja) * | 2017-11-01 | 2021-01-21 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
JP7382332B2 (ja) | 2017-11-01 | 2023-11-16 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
US11949904B2 (en) | 2018-04-01 | 2024-04-02 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
JP2021517798A (ja) * | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
US11252432B2 (en) | 2018-04-01 | 2022-02-15 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
US11632565B2 (en) | 2018-04-01 | 2023-04-18 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
JP7223111B2 (ja) | 2018-07-02 | 2023-02-15 | 華為技術有限公司 | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
US11711524B2 (en) | 2018-07-02 | 2023-07-25 | Lg Electronics Inc. | Inter-prediction mode-based image processing method and device therefor |
JP2021530165A (ja) * | 2018-07-02 | 2021-11-04 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
JP2021516006A (ja) * | 2018-07-02 | 2021-06-24 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP2022532670A (ja) * | 2019-05-17 | 2022-07-15 | 華為技術有限公司 | インター予測方法および装置 |
JP7318007B2 (ja) | 2019-05-17 | 2023-07-31 | 華為技術有限公司 | インター予測方法および装置 |
WO2024078331A1 (en) * | 2022-10-14 | 2024-04-18 | Mediatek Inc. | Method and apparatus of subblock-based motion vector prediction with reordering and refinement in video coding |
Also Published As
Publication number | Publication date |
---|---|
KR20170108010A (ko) | 2017-09-26 |
US20160219278A1 (en) | 2016-07-28 |
EA035270B1 (ru) | 2020-05-22 |
BR112017015890A2 (pt) | 2018-04-10 |
ES2755573T3 (es) | 2020-04-22 |
WO2016123081A1 (en) | 2016-08-04 |
EA201791449A1 (ru) | 2017-12-29 |
BR112017015890B1 (pt) | 2023-10-17 |
EP3251361A1 (en) | 2017-12-06 |
US11477477B2 (en) | 2022-10-18 |
CA2971636C (en) | 2021-10-12 |
TN2017000288A1 (en) | 2019-01-16 |
TW201640893A (zh) | 2016-11-16 |
TWI696382B (zh) | 2020-06-11 |
KR102102029B1 (ko) | 2020-04-17 |
HUE047034T2 (hu) | 2020-04-28 |
CA2971636A1 (en) | 2016-08-04 |
CN107211156A (zh) | 2017-09-26 |
EP3251361B1 (en) | 2019-08-14 |
JP6636530B2 (ja) | 2020-01-29 |
CN107211156B (zh) | 2019-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636530B2 (ja) | サブ予測ユニットベース高度時間動きベクトル予測 | |
JP6766079B2 (ja) | 空間および/または時間動き情報を使用するサブ予測ユニット動きベクトル予測 | |
JP7000565B2 (ja) | ビデオコーディングのためのアフィン予測動き情報をコーディングすること | |
CN109644272B (zh) | 用于建构候选列表的几何型优先级 | |
JP6585200B2 (ja) | ビデオコード化における視差ベクトル予測 | |
JP7229774B2 (ja) | ビデオコーディングのための動きベクトル予測のためのマージ候補 | |
JP6783788B2 (ja) | ビデオコーディングにおけるサブブロックの動き情報の導出 | |
JP2021182743A (ja) | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること | |
JP6215295B2 (ja) | Hevcおよびその拡張における動きベクトルのコーディングおよび双予測 | |
JP6615606B2 (ja) | 3d−hevcに関する視差ベクトル構築方法 | |
JP6258288B2 (ja) | 高効率ビデオコーディングのためのハイレベルシンタックスの拡張 | |
JP5805850B2 (ja) | ビデオコード化における動きベクトル予測 | |
JP6855242B2 (ja) | ビデオコーディングのためのディスパリティベクトルおよび/または高度残差予測 | |
JP2018522466A (ja) | ビデオコーディングのための照明補償ステータスを決定するシステムおよび方法 | |
JP2018522464A (ja) | ビデオコーディングのための照明補償ステータスを決定するシステムおよび方法 | |
JP2015515227A (ja) | ビデオコーディングのためのビュー間予測のための視差ベクトル生成 | |
JP2016506185A (ja) | ビデオコーディング拡張規格のための時間動きベクトル予測 | |
OA18314A (en) | Sub-prediction unit based advanced temporal motion vector prediction. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190104 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191018 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636530 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |