JP6636530B2 - サブ予測ユニットベース高度時間動きベクトル予測 - Google Patents
サブ予測ユニットベース高度時間動きベクトル予測 Download PDFInfo
- Publication number
- JP6636530B2 JP6636530B2 JP2017538966A JP2017538966A JP6636530B2 JP 6636530 B2 JP6636530 B2 JP 6636530B2 JP 2017538966 A JP2017538966 A JP 2017538966A JP 2017538966 A JP2017538966 A JP 2017538966A JP 6636530 B2 JP6636530 B2 JP 6636530B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- candidate
- atmvp
- motion vector
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 title claims description 435
- 230000002123 temporal effect Effects 0.000 title claims description 154
- 238000000034 method Methods 0.000 claims description 134
- 238000003860 storage Methods 0.000 claims description 36
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 21
- 230000008569 process Effects 0.000 description 43
- 238000013139 quantization Methods 0.000 description 24
- 238000005192 partition Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000013138 pruning Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 13
- 238000000638 solvent extraction Methods 0.000 description 11
- 238000009795 derivation Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 239000002131 composite material Substances 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000001174 ascending effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 102100027397 Cilia- and flagella-associated protein 100 Human genes 0.000 description 1
- 102100022183 E3 ubiquitin-protein ligase MIB1 Human genes 0.000 description 1
- 101000725206 Homo sapiens Cilia- and flagella-associated protein 100 Proteins 0.000 description 1
- 101000973503 Homo sapiens E3 ubiquitin-protein ligase MIB1 Proteins 0.000 description 1
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Description
・1つの16×16MB区分
・2つの16×8MB区分
・2つの8×16MB区分
・4つの8×8MB区分
[0030]1つのMB中の異なるMB区分は、各方向について異なる参照インデックス値(RefPicList0またはRefPicList1)を有し得る。
・1つの8×8サブブロック
・2つの8×4サブブロック
・2つの4×8サブブロック
・4つの4×4サブブロック
[0033]各サブブロックは、各方向に異なる動きベクトルを有することができる。したがって、動きベクトルは、サブブロックよりも高いか等しいレベルにおいて存在する。
1.ATMVP候補はTMVPのような追加の候補として挿入され得るが、そのようなATMVP候補の位置、ならびにより高いコーディング効率を達成するためのTMVP候補との相互作用は、知られていない。
2.ATMVP候補の利用可能性をどのように定義すべきかは明らかでなく、それは、ATMVP候補が利用不可能であり、したがってATMVP候補に挿入され得るかどうかを決定するためにすべてのサブPUのすべての動きベクトルが検査されるべきである場合、極めて複雑であろう。
3.ATMVP候補を用いたプルーニングプロセスが必要とされ得るが、そのような候補を用いたプルーニングは複雑であり得る。
4.コーディング効率と複雑さとの間の最良のトレードオフを達成するための、ATMVP候補のための様々な他の設計詳細は、未知のままである。
a.空間候補およびTMVP候補が、ある順序でマージ候補リストに挿入されると仮定する。ATMVP候補は、それらの候補の任意の比較的固定された位置中に挿入され得る。
[0075]atmvp_sub_pu_sizeがSPS中に存在し得る。
[0088]変数mtSrcPOCを、TMVPにおいて使用されるコロケートされたピクチャのPOC値に設定し、tVをゼロベクトルに設定し、atmvpAvaFlagは0に設定される。
・現在スライスがBスライスである場合、両端値を含む、dir〜(1−dir)に等しいXについて、または、現在スライスがBスライスでない場合、ただ0に等しいXについて、以下が適用される。
・tVがMVLX[N]に等しく設定される、
・atmvpAvaFlagが1に設定される、
・このプロセスを終了する。
ピクチャのリストを、空のリストであるべきCanPicATMVPであるように設定する。
CanPicATMVP[0]が、mtSrcPOCに等しいPOC値をもつピクチャであるように設定される。
iが1に等しく設定される、
MotionSrcPicは、空のピクチャであり、以下で指定されているように更新され得る。
利用可能な参照ピクチャリストXの各々について、以下が適用される。
・現在スライスがBスライスである場合、両端値を含む、dir〜(1−dir)に等しいXについて、または、現在スライスがBスライスでない場合、ただ0に等しいXについて、以下が適用される。
・CanPicATMVP[i++]=RefPicListX[idx];
(CurrPosX,CurrPosY)を現在PUの左上ピクセル位置の座標とする。
両端値を含む、0〜iに等しいnについて、以下が適用される。
・他の場合(nが0に等しい)、tScaledVectorはtVに等しく設定される。
・centerPosY=CurrPosY+=((tScaledVector[1]+2)>>2);
・(centerPosX,centerPosY)を、中心サブPUの対応するブロックを識別する位置とし、現在PUサイズを、幅×高さとする。
(min(spuWidth, width)>>1);
・centerPosY+=CurrPosX+((height/spuHeight)>>1)*spuHeight+
(min(spuHeight, height)>>1);
・入力として、CanPicATMVP[n]に等しいピクチャmtnSrcPic、および(centerPosX,centerPosY)に等しい位置(posX,posY)をもつ、ならびに、出力として、サブPU動き利用可能フラグSubPuMtnAvaFlag、参照インデックスsColRefIdx0とsColRefIdx1とのペア、および動きベクトル、sColMV0、sColMV1のペアをもつ、動き情報を捕捉する動き情報フェッチングプロセスを呼び出す。
・tVがtScaledVectorであるように設定される
・このループを終了する。
このプロセスの入力は、ピクチャmtnSrcPicおよびそのピクチャを用いた位置(posX,posY)であり、このプロセスの出力は、動き利用可能フラグmtnAvaFlag、参照インデックスrefIdx0とrefIdx1とのペア、および動きベクトル、mv0、mv1のペアである。
(posX,posY)は、最初に、ピクチャmtnSrcPic内にあるようにクリッピングされる。
位置(posX,posY)を含んでいる、4×4(または動き情報を記憶している他の最も小さいサイズ)ブロックblkTが識別される。
mtnAvaFlagは0に等しく設定される。
blkTがイントラコーディングされず、それの動き情報が、blkTRefIdx0と、blkTRefIdx1と、blkTMv0と、blkTMv1とを含んでいる場合、以下が適用される。
・mvXがblkTMvXに等しく設定される
[0092]ATMVPのためのサブPU動きの生成:
SubPuMtnAvaFlagが1に等しい場合、以下のプロセスが呼び出される。
[以下、イタリック体のテキスト]
・tempPosX+=((tV[0’]+2)>>2);
・tempPosY+=((tV[l]+2)>>2);
・入力として、MotionSrcPicに等しいピクチャmtnSrcPic、および(tempPosX,tempPosY)に等しい位置(posX,posY)をもつ、ならびに、出力として、サブPU動き利用可能フラグcurrSubPuMtnAvaFlag、参照インデックスcurrSubRefIdx0とcurrSubRefIdx1とのペア、および動きベクトル、currSubMV0、currSubMV1のペアをもつ、動き情報を捕捉する動き情報フェッチングプロセスを呼び出す。
現在サブPUのための導出された参照インデックスおよび動きベクトルをcSpuRefIdxXおよびcSpuMVXとして示し、それらは以下のように導出される。
・cSpuMVXは、TMVPの場合と同様に、currSubMVXのスケーリングされたベクトルであるように設定される。
このATMVP候補のための(0または1に等しいXについての)動き情報の代表的セット、aRefIdxXおよびaMVXは、以下のように導出される:
・aRefIdxX=(cColRefIdxX>=0 ? 0:-1);
・aMVXは、TMVPの場合と同様に、cColMVXのスケーリングされたベクトルであるように設定される。
[以下、イタリック体のテキスト]
代替的に、動きフェッチングプロセスおよび動きスケーリングプロセスは、HEVCバージョン1のTMVPの場合と同じ(または同様)であり、すなわち、HEVCバージョン1のサブクローズ8.5.3.2.8:「コロケートされた動きベクトルのための導出プロセス」が、このサブセクション中のハイライトされたテキストに取って代わるために適用される。この場合、TMVP(サブクローズ8.5.3.2.8)の場合のような動きフェッチングプロセスおよび動きスケーリングプロセスが、(イタリック体のテキスト(なお、[以下、イタリック体のテキスト]と[以上、イタリック体のテキスト]とで囲まれた範囲にイタリック体で示されたテキストを示す。)によって示されるようなものを含む)上記で定義された動きフェッチングプロセスおよび動きスケーリングプロセスに取って代わる。
[以上、イタリック体のテキスト]
[0093]マージ候補リストへのATMVP候補の挿入:
[0094]SubPuMtnAvaFlagが1に等しいとき、ATMVP候補は、[以下、イタリック体のテキスト]A0(または代替的に[以上、イタリック体のテキスト]B0)候補がテストされ、場合によってはマージ候補リストに挿入された後、マージ候補に挿入される。
1.第1のステージにおけるベクトルは、現在PUの空間および時間隣接ブロックから導出され得る。
2.このプロセスは、すべての他のマージ候補のうちの1つのマージ候補をアクティブにすることとして達成され得る。
1.ベクトル導出の第1のステージはまた、ただゼロベクトルによって簡略化され得る。
2.ベクトル導出の第1のステージは、動きベクトルとそれの関連するピクチャとを一緒に識別することを含み得る。関連するピクチャを選択し、さらに、動きベクトルが第1ステージベクトルであると決める、様々な方法が提案されている。
3.上記のプロセス中の動き情報が利用不可能である場合、「第1ステージベクトル」は、置換のために使用される。
4.時間ネイバーから識別された動きベクトルは、TMVPにおける動きベクトルスケーリングと同様の方法で、現在サブPUのために使用されるようにスケーリングされなければならない。しかしながら、そのような動きベクトルがどの参照ピクチャにスケーリングされ得るかは、以下の方法のうちの1つを用いて設計され得る。
図10の例では、ビデオエンコーダ20がマージモードを使用して動き情報を符号化することを選んだと仮定される。概して、ビデオエンコーダ20(より詳細には、モード選択ユニット40)は、候補リスト中の候補のうちのどれが最良のレートひずみ特性を生じるかを決定し、ブロックを予測するために使用されるようにその候補を選択し得る。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を備える、方法。
[C2]
前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を備える、C1に記載の方法。
[C3]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定することを備える、C2に記載の方法。
[C4]
前記マージ候補リストを形成することは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成することを備える、C1に記載の方法。
[C5]
動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成することを備える、C4に記載の方法。
[C6]
動き情報の前記代表的セットから前記ATMVP候補を形成することは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成することを備える、C4に記載の方法。
[C7]
前記マージ候補リストを形成することは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を備える、C1に記載の方法。
[C8]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C7に記載の方法。
[C9]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C7に記載の方法。
[C10]
前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択することをさらに備える、C7に記載の方法。
[C11]
前記マージ候補リストを形成することは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を備える、C1に記載の方法。
[C12]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングする、C11に記載の方法。
[C13]
前記インデックスをコーディングすることは、前記インデックスを復号することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を備える、C1に記載の方法。
[C14]
前記インデックスをコーディングすることは、前記インデックスを符号化することを備え、前記現在ブロックをコーディングすることは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を備える、C1に記載の方法。
[C15]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータを記憶するように構成されたメモリと、
ビデオコーダと、を備え、前記ビデオコーダは、
前記ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行うように構成された、デバイス。
[C16]
前記マージ候補リストを形成するために、前記ビデオコーダは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行うように構成された、C15に記載のデバイス。
[C17]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するために、前記ビデオコーダは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するように構成された、C16に記載のデバイス。
[C18]
前記マージ候補リストを形成するために、前記ビデオコーダは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するように構成された、C15に記載のデバイス。
[C19]
動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するように構成された、C18に記載のデバイス。
[C20]
動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するように構成された、C18に記載のデバイス。
[C21]
前記マージ候補リストを形成するために、前記ビデオコーダは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行うように構成された、C15に記載のデバイス。
[C22]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C21に記載のデバイス。
[C23]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C21に記載のデバイス。
[C24]
前記ビデオコーダは、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するようにさらに構成された、C21に記載のデバイス。
[C25]
前記マージ候補リストを形成するために、前記ビデオコーダは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行うように構成された、C15に記載のデバイス。
[C26]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記ビデオコーダは、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定することと、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングすることとを行うように構成された、C25に記載のデバイス。
[C27]
前記ビデオコーダは、前記インデックスを復号するように構成されたビデオデコーダを備え、前記現在ブロックをコーディングするために、前記ビデオデコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行うように構成された、C15に記載のデバイス。
[C28]
前記ビデオコーダは、前記インデックスを符号化するように構成されたビデオエンコーダを備え、前記現在ブロックをコーディングするために、前記ビデオエンコーダは、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行うように構成された、C15に記載のデバイス。
[C29]
前記デバイスは、
集積回路、
マイクロプロセッサ、または
ワイヤレス通信デバイス、
のうちの少なくとも1つを備える、C15に記載のデバイス。
[C30]
ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成するための手段と、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングするための手段と、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングするための手段と、
を備える、デバイス。
[C31]
前記マージ候補リストを形成することは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための手段と、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成するための手段と、
を備える、C30に記載のデバイス。
[C32]
動き情報が前記対応するブロックのために利用可能であるかどうかを決定するための前記手段は、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するための手段を備える、C31に記載のデバイス。
[C33]
前記マージ候補リストを形成するための前記手段は、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するための手段を備える、C30に記載のデバイス。
[C34]
動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成するための手段を備える、C33に記載のデバイス。
[C35]
動き情報の前記代表的セットから前記ATMVP候補を形成するための前記手段は、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するための手段を備える、C33に記載のデバイス。
[C36]
前記マージ候補リストを形成するための前記手段は、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加するための手段と、
前記第1のATMVP候補が利用可能でないとき、第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用するための手段と、
前記第1のATMVP候補が利用可能でないとき、前記ATMVP候補として前記マージ候補リストに前記第2のATMVP候補を追加するための手段と、
を備える、C30に記載のデバイス。
[C37]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C36に記載のデバイス。
[C38]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C36に記載のデバイス。
[C39]
前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するための手段をさらに備える、C36に記載のデバイス。
[C40]
前記マージ候補リストを形成するための前記手段は、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定するための手段と、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加するための手段と、
を備える、C30に記載のデバイス。
[C41]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定し、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングするための手段をさらに備える、C40に記載のデバイス。
[C42]
前記インデックスをコーディングするための前記手段は、前記インデックスを復号するための手段を備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックのための残差情報を復号するための手段と、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号するための手段と、
を備える、C30に記載のデバイス。
[C43]
前記インデックスをコーディングするための前記手段は、前記インデックスを符号化することを備え、前記現在ブロックをコーディングするための前記手段は、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測するための手段と、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成するための手段と、
前記残差情報を符号化するための手段と、
を備える、C30に記載のデバイス。
[C44]
実行されたとき、プロセッサに、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成することと、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補と、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補とを含み、
前記マージ候補リスト中の前記複数のマージ候補のうちの1つのマージ候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記識別されたマージ候補の動き情報を使用して、ビデオデータの前記現在ブロックをコーディングすることと、
を行わせる命令を記憶したコンピュータ可読記憶媒体。
[C45]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C46]
前記プロセッサに、動き情報が前記対応するブロックのために利用可能であるかどうかを決定させる前記命令は、前記プロセッサに、前記対応するブロックの一部分がイントラ予測されるかどうかを決定させる命令を備える、C45に記載のコンピュータ可読記憶媒体。
[C47]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成させる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C48]
前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定の位置のための動き情報から前記ATMVP候補を形成させる命令を備える、C47に記載のコンピュータ可読記憶媒体。
[C49]
前記プロセッサに、動き情報の前記代表的セットから前記ATMVP候補を形成させる前記命令は、前記プロセッサに、前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成させる命令を備える、C47に記載のコンピュータ可読記憶媒体。
[C50]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C51]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、C50に記載のコンピュータ可読記憶媒体。
[C52]
前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、C50に記載のコンピュータ可読記憶媒体。
[C53]
前記プロセッサに、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択させる命令をさらに備える、C50に記載のコンピュータ可読記憶媒体。
[C54]
前記プロセッサに前記マージ候補リストを形成させる前記命令は、前記プロセッサに、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C55]
前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記命令は、前記プロセッサに、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定させ、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングさせる、C54に記載のコンピュータ可読記憶媒体。
[C56]
前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記プロセッサに前記インデックスを復号させる命令を備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
[C57]
前記プロセッサに前記インデックスをコーディングさせる前記命令は、前記インデックスを符号化することを備え、前記プロセッサに前記現在ブロックをコーディングさせる前記命令は、前記プロセッサに、
予測ブロックを形成するために、前記識別されたマージ候補の前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行わせる命令を備える、C44に記載のコンピュータ可読記憶媒体。
Claims (16)
- ビデオデータをコーディングするためのデバイスであって、前記デバイスは、
ビデオデータを記憶するように構成されたメモリと、
ビデオコーダと、を備え、前記ビデオコーダは、
前記ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成すること
を行うように構成され、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補を含み、
前記ビデオコーダは、さらに、
前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補を含むことによって前記マージ候補リストを形成することと、ここにおいて、前記ATMVP候補は、前記現在ブロックが、複数のサブブロックにスプリットされる前記ATMVP候補によって識別される1つのブロックを使用して予測されることを示し、前記複数のサブブロックの各々は、それぞれの動き情報のセットを有し、
前記マージ候補リスト中の前記複数のマージ候補のうちの前記ATMVP候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記ATMVP候補を識別する前記インデックスに基づいて、ビデオデータの前記現在ブロックをコーディングすることと、ここにおいて、前記ビデオデータの前記現在ブロックをコーディングするために、前記ビデオコーダは、前記現在ブロックのサブブロックを、前記ATMVP候補によって識別される前記ブロックの前記サブブロックの前記それぞれの動き情報を使用してコーディングするように構成された、
を行うように構成されることを特徴とする、デバイス。 - 前記マージ候補リストを形成するために、前記ビデオコーダは、
前記現在ブロックについて、参照ピクチャ中の対応するブロックを決定することと、
動き情報が前記対応するブロックのために利用可能であるかどうかを決定することと、
動き情報が前記対応するブロックのために利用可能であると決定した後に、前記ATMVP候補を含むように前記マージ候補リストを形成することと、
を行うように構成された、請求項1に記載のデバイス。 - 動き情報が前記対応するブロックのために利用可能であるかどうかを決定するために、前記ビデオコーダは、前記対応するブロックの一部分がイントラ予測されるかどうかを決定するように構成された、請求項2に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、参照ピクチャ中の前記現在ブロックに対する対応するブロックのための動き情報の代表的セットから前記ATMVP候補を形成するように構成された、請求項1に記載のデバイス。
- 動き情報の前記代表的セットから前記ATMVP候補を形成するために、前記ビデオコーダは、前記対応するブロックの所定の位置のための、または前記対応するブロックの所定のサブ予測ユニット(サブPU)のための動き情報から前記ATMVP候補を形成するように構成された、請求項4に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、
第1の動きソースピクチャ中の第1の高度時間動きベクトル予測(ATMVP)候補を識別するために、前記現在ブロックに対して、第1の時間動きベクトルを使用することと、
前記第1のATMVP候補が利用可能であるとき、前記ATMPV候補として、前記マージ候補リストに前記第1のATMVP候補を追加することと、
前記第1のATMVP候補が利用可能でないとき、
第2の動きソースピクチャ中の第2のATMVP候補を識別するために、前記現在ブロックに対して、第2の時間動きベクトルを使用することと、
前記ATMVP候補として、前記マージ候補リストに前記第2のATMVP候補を追加することと、
を行うように構成された、請求項1に記載のデバイス。 - 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、同じ時間動きベクトルを備え、前記第1の動きソースピクチャと前記第2の動きソースピクチャとは、異なる動きソースピクチャを備える、請求項6に記載のデバイス。
- 前記第1の時間動きベクトルと前記第2の時間動きベクトルとは、異なる時間動きベクトルを備える、請求項6に記載のデバイス。
- 前記ビデオコーダは、前記隣接ブロックの時間ベクトルから、所定の順序に従って、前記第1の時間動きベクトルおよび前記第2の時間動きベクトルを選択するようにさらに構成された、請求項6に記載のデバイス。
- 前記マージ候補リストを形成するために、前記ビデオコーダは、
動きベクトルが、参照ピクチャリストXのための前記ATMVP候補のサブブロックのために利用可能であるかどうかを決定することと、
前記動きベクトルが利用可能であると決定した後に、前記候補リストに前記ATMVP候補を追加することと、
を行うように構成された、請求項1に記載のデバイス。 - 前記動きベクトルが参照ピクチャリストXのために利用可能でないが、参照ピクチャリストX以外の参照ピクチャリストを備える参照ピクチャリストYのために利用可能であるとき、前記ビデオコーダは、参照ピクチャリストXのために利用可能であるように前記動きベクトルを設定することと、参照ピクチャリストX中の参照ピクチャに前記動きベクトルをスケーリングすることとを行うように構成された、請求項10に記載のデバイス。
- 前記ビデオコーダは、前記インデックスを復号するように構成されたビデオデコーダを備え、前記現在ブロックをコーディングするために、前記ビデオデコーダは、
予測ブロックを形成するために、前記ATMVP候補によって識別される前記ブロックの前記サブブロックの前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックのための残差情報を復号することと、
前記復号された残差情報と前記予測ブロックとを使用して、前記現在ブロックを復号することと、
を行うように構成された、請求項1に記載のデバイス。 - 前記ビデオコーダは、前記インデックスを符号化するように構成されたビデオエンコーダを備え、前記現在ブロックをコーディングするために、前記ビデオエンコーダは、
予測ブロックを形成するために、前記ATMVP候補によって識別される前記ブロックの前記サブブロックの前記動き情報を使用して前記現在ブロックを予測することと、
前記現在ブロックと前記予測ブロックとの間の差分を表す残差ブロックを形成することと、
前記残差情報を符号化することと、
を行うように構成された、請求項1に記載のデバイス。 - 前記ビデオコーダは、ビデオエンコーダであり、前記デバイスは、前記符号化されたビデオデータを送信するための送信機をさらに備える、請求項1に記載のデバイス。
- ビデオデータをコーディングする方法であって、前記方法は、
ビデオデータの現在ブロックについて、複数のマージ候補を含むマージ候補リストを形成すること、ここで、前記複数のマージ候補は、前記現在ブロックの4つの隣接ブロックからの4つの空間隣接候補を含む、
を備え、前記複数のマージ候補は、前記4つの空間隣接候補の直後に、高度時間動きベクトル予測(ATMVP)候補を含み、ここにおいて、前記ATMVP候補は、前記現在ブロックが、複数のサブブロックにスプリットされる前記ATMVP候補によって識別される1つのブロックを使用して予測されることを示し、前記複数のサブブロックの各々は、それぞれの動き情報のセットを有し、
前記マージ候補リスト中の前記複数のマージ候補のうちの前記ATMVP候補を識別するインデックスを前記マージ候補リストにコーディングすることと、
前記ATMVP候補を識別する前記インデックスに基づいて、ビデオデータの前記現在ブロックをコーディングすることと、ここにおいて、前記現在ブロックをコーディングすることは、前記現在ブロックのサブブロックを、前記ATMVP候補によって識別される前記ブロックの前記サブブロックの前記それぞれの動き情報を使用してコーディングすることを備える、
を特徴とする、方法。 - 実行されたとき、プロセッサに、請求項15に記載の方法を行わせる命令を記憶した、コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562107933P | 2015-01-26 | 2015-01-26 | |
US62/107,933 | 2015-01-26 | ||
US15/005,564 | 2016-01-25 | ||
US15/005,564 US11477477B2 (en) | 2015-01-26 | 2016-01-25 | Sub-prediction unit based advanced temporal motion vector prediction |
PCT/US2016/014875 WO2016123081A1 (en) | 2015-01-26 | 2016-01-26 | Sub-prediction unit based advanced temporal motion vector prediction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018506908A JP2018506908A (ja) | 2018-03-08 |
JP2018506908A5 JP2018506908A5 (ja) | 2019-02-14 |
JP6636530B2 true JP6636530B2 (ja) | 2020-01-29 |
Family
ID=56433539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017538966A Active JP6636530B2 (ja) | 2015-01-26 | 2016-01-26 | サブ予測ユニットベース高度時間動きベクトル予測 |
Country Status (13)
Country | Link |
---|---|
US (1) | US11477477B2 (ja) |
EP (1) | EP3251361B1 (ja) |
JP (1) | JP6636530B2 (ja) |
KR (1) | KR102102029B1 (ja) |
CN (1) | CN107211156B (ja) |
BR (1) | BR112017015890B1 (ja) |
CA (1) | CA2971636C (ja) |
EA (1) | EA035270B1 (ja) |
ES (1) | ES2755573T3 (ja) |
HU (1) | HUE047034T2 (ja) |
TN (1) | TN2017000288A1 (ja) |
TW (1) | TWI696382B (ja) |
WO (1) | WO2016123081A1 (ja) |
Families Citing this family (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10230980B2 (en) | 2015-01-26 | 2019-03-12 | Qualcomm Incorporated | Overlapped motion compensation for video coding |
US10187653B2 (en) * | 2015-05-18 | 2019-01-22 | Avago Technologies International Sales Pte. Limited | Motor vector prediction using co-located prediction units |
WO2017069505A1 (ko) * | 2015-10-19 | 2017-04-27 | 엘지전자(주) | 영상의 부호화/복호화 방법 및 이를 위한 장치 |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
KR102275420B1 (ko) * | 2016-07-12 | 2021-07-09 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 이를 위한 기록 매체 |
US10721489B2 (en) | 2016-09-06 | 2020-07-21 | Qualcomm Incorporated | Geometry-based priority for the construction of candidate lists |
US10477238B2 (en) | 2016-09-07 | 2019-11-12 | Qualcomm Incorporated | Sub-PU based bi-directional motion compensation in video coding |
US10812791B2 (en) | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
JP7048503B2 (ja) * | 2016-09-27 | 2022-04-05 | シャープ株式会社 | 復号装置、符号化装置、復号方法、および、符号化方法 |
CN106507111B (zh) * | 2016-11-17 | 2019-11-15 | 上海兆芯集成电路有限公司 | 使用残差补偿的视频编码方法以及使用该方法的装置 |
WO2018099269A1 (en) * | 2016-11-29 | 2018-06-07 | Mediatek Inc. | Method and apparatus of merge mode derivation for video coding |
EP3723045B1 (en) | 2017-04-21 | 2023-10-18 | Zenimax Media Inc. | Player input motion compensation by anticipating motion vectors |
TWI646823B (zh) * | 2017-04-27 | 2019-01-01 | 晨星半導體股份有限公司 | 視訊壓縮方法及視訊壓縮裝置 |
KR20200012957A (ko) | 2017-06-30 | 2020-02-05 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인터-프레임 예측 방법 및 디바이스 |
WO2019074273A1 (ko) * | 2017-10-10 | 2019-04-18 | 한국전자통신연구원 | 인터 예측 정보를 사용하는 방법 및 장치 |
KR102427789B1 (ko) | 2017-10-10 | 2022-08-02 | 한국전자통신연구원 | 인터 예측 정보를 사용하는 방법 및 장치 |
US10785494B2 (en) * | 2017-10-11 | 2020-09-22 | Qualcomm Incorporated | Low-complexity design for FRUC |
US20190116374A1 (en) * | 2017-10-17 | 2019-04-18 | Qualcomm Incorporated | Coding motion information of video data using coding structure-based candidate list construction |
WO2019089933A1 (en) * | 2017-11-01 | 2019-05-09 | Vid Scale, Inc. | Sub-block motion derivation and decoder-side motion vector refinement for merge mode |
SG11202002881XA (en) * | 2017-11-14 | 2020-05-28 | Qualcomm Inc | Unified merge candidate list usage |
TW201924349A (zh) * | 2017-11-17 | 2019-06-16 | 晨星半導體股份有限公司 | 與移動補償相關之影像處理裝置及影像處理方法 |
US10623746B2 (en) * | 2017-12-07 | 2020-04-14 | Tencent America LLC | Method and apparatus for video coding |
CN108347616B (zh) * | 2018-03-09 | 2020-02-14 | 中南大学 | 一种基于可选时域运动矢量预测的深度预测方法及装置 |
WO2019194502A1 (ko) * | 2018-04-01 | 2019-10-10 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN112204964B (zh) | 2018-04-01 | 2024-04-26 | Lg电子株式会社 | 基于帧间预测模式的图像处理方法及其装置 |
US10999604B2 (en) | 2018-04-13 | 2021-05-04 | Mediatek Inc. | Adaptive implicit transform setting |
WO2019199141A1 (ko) * | 2018-04-13 | 2019-10-17 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인터 예측 방법 및 장치 |
US11297348B2 (en) * | 2018-04-13 | 2022-04-05 | Mediatek Inc. | Implicit transform settings for coding a block of pixels |
US10397603B1 (en) * | 2018-05-08 | 2019-08-27 | Tencent America LLC | Method and apparatus for video coding |
MX2020012547A (es) * | 2018-05-24 | 2021-02-18 | Kt Corp | Método y aparato para procesar señal de video. |
US11109025B2 (en) * | 2018-06-04 | 2021-08-31 | Tencent America LLC | Method and apparatus for sub-block based temporal motion vector prediction |
CN112040243B (zh) * | 2018-06-04 | 2021-06-29 | 华为技术有限公司 | 获取运动矢量的方法和装置 |
KR20210016581A (ko) * | 2018-06-05 | 2021-02-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Ibc 및 atmvp 간의 상호 작용 |
CN110636298B (zh) | 2018-06-21 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 对于Merge仿射模式和非Merge仿射模式的统一约束 |
EP3788782A1 (en) | 2018-06-21 | 2021-03-10 | Beijing Bytedance Network Technology Co. Ltd. | Sub-block mv inheritance between color components |
CN112369032A (zh) * | 2018-06-27 | 2021-02-12 | Vid拓展公司 | 用于降低解码器侧运动修正的译码等待时间的方法和装置 |
CA3105330C (en) | 2018-06-29 | 2023-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
CN110662059B (zh) | 2018-06-29 | 2021-04-20 | 北京字节跳动网络技术有限公司 | 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置 |
CN110662053B (zh) | 2018-06-29 | 2022-03-25 | 北京字节跳动网络技术有限公司 | 使用查找表的视频处理方法、装置和存储介质 |
EP3791589A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Which lut to be updated or no updating |
TWI723445B (zh) * | 2018-06-29 | 2021-04-01 | 大陸商北京字節跳動網絡技術有限公司 | 查找表的更新:fifo、約束的fifo |
KR20240005240A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
TWI744662B (zh) | 2018-06-29 | 2021-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 更新查閱資料表(lut)的條件 |
CA3101730A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Partial/full pruning when adding a hmvp candidate to merge/amvp |
CN111903123B (zh) * | 2018-07-02 | 2024-03-08 | Lg电子株式会社 | 基于帧间预测模式的图像处理方法和用于该方法的装置 |
JP7223111B2 (ja) * | 2018-07-02 | 2023-02-15 | 華為技術有限公司 | 動きベクトル予測方法および装置、エンコーダ、ならびにデコーダ |
CN110677666B (zh) | 2018-07-02 | 2022-06-14 | 北京字节跳动网络技术有限公司 | Lamvr中取整和修剪的顺序 |
WO2020017861A1 (ko) * | 2018-07-16 | 2020-01-23 | 엘지전자 주식회사 | 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치 |
WO2020017892A1 (ko) * | 2018-07-17 | 2020-01-23 | 엘지전자 주식회사 | 서브블록 단위의 시간적 움직임 벡터 예측을 위한 방법 및 그 장치 |
MX2023002949A (es) | 2018-07-18 | 2023-11-07 | Beijing Dajia Internet Information Tech Co Ltd | Métodos y aparato de codificación de video que usa el campo técnico de predicción de vectores de movimiento basado en el historial. |
WO2020022853A1 (ko) * | 2018-07-27 | 2020-01-30 | 삼성전자 주식회사 | 서브 블록 기반으로 영상을 복호화하는 방법 및 장치, 부호화 방법 및 장치 |
TWI734158B (zh) * | 2018-07-31 | 2021-07-21 | 聯發科技股份有限公司 | 用於視訊編解碼的利用運動向量差的合併方法和裝置 |
CN110868601B (zh) * | 2018-08-28 | 2024-03-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
CN117319650A (zh) * | 2018-08-28 | 2023-12-29 | 华为技术有限公司 | 编码方法、解码方法以及编码装置、解码装置 |
KR20230169474A (ko) | 2018-08-29 | 2023-12-15 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치 |
JP7157152B2 (ja) | 2018-09-12 | 2022-10-19 | エルジー エレクトロニクス インコーポレイティド | 画像コーディングシステムにおけるサブブロック単位の動き予測に基づく画像デコーディング方法及び装置 |
GB2590310B (en) | 2018-09-12 | 2023-03-22 | Beijing Bytedance Network Tech Co Ltd | Conditions for starting checking HMVP candidates depend on total number minus K |
WO2020060344A1 (ko) * | 2018-09-21 | 2020-03-26 | 엘지전자 주식회사 | 영상 신호를 처리하기 위한 방법 및 장치 |
GB2579763B (en) * | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
US11595685B2 (en) * | 2018-09-21 | 2023-02-28 | Interdigital Vc Holdings, Inc. | Motion vector prediction in video encoding and decoding |
WO2020065517A1 (en) | 2018-09-24 | 2020-04-02 | Beijing Bytedance Network Technology Co., Ltd. | Simplified history based motion vector prediction |
US11051034B2 (en) * | 2018-10-08 | 2021-06-29 | Qualcomm Incorporated | History-based motion vector predictor |
KR102354489B1 (ko) * | 2018-10-08 | 2022-01-21 | 엘지전자 주식회사 | Atmvp 후보를 기반으로 영상 코딩을 수행하는 장치 |
WO2020075053A1 (en) | 2018-10-08 | 2020-04-16 | Beijing Bytedance Network Technology Co., Ltd. | Generation and usage of combined affine merge candidate |
GB2578150C (en) | 2018-10-18 | 2022-05-18 | Canon Kk | Video coding and decoding |
GB2595054B (en) | 2018-10-18 | 2022-07-06 | Canon Kk | Video coding and decoding |
WO2020084473A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Multi- iteration motion vector refinement |
WO2020084553A1 (en) * | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate derivation based on multiple information in sub-block motion vector prediction |
KR20210084479A (ko) * | 2018-11-06 | 2021-07-07 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 모션 정보의 위치 의존적 저장 |
JP7324841B2 (ja) | 2018-11-10 | 2023-08-10 | 北京字節跳動網絡技術有限公司 | ビデオ・データ処理方法、装置、記憶媒体及び記憶方法 |
WO2020098644A1 (en) * | 2018-11-12 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Bandwidth control methods for inter prediction |
WO2020098694A1 (en) | 2018-11-13 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Construction method for a spatial motion candidate list |
CN113273208A (zh) * | 2018-11-14 | 2021-08-17 | 北京字节跳动网络技术有限公司 | 仿射预测模式的改进 |
CN117319644A (zh) | 2018-11-20 | 2023-12-29 | 北京字节跳动网络技术有限公司 | 基于部分位置的差计算 |
CN113056920A (zh) | 2018-11-22 | 2021-06-29 | 北京字节跳动网络技术有限公司 | 基于子块的帧间预测的协调方法 |
WO2020108649A1 (en) * | 2018-11-29 | 2020-06-04 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between intra block copy mode and inter prediction tools |
WO2020114405A1 (en) | 2018-12-03 | 2020-06-11 | Beijing Bytedance Network Technology Co., Ltd. | Indication method of maximum number of candidates |
US11122288B2 (en) * | 2018-12-06 | 2021-09-14 | Qualcomm Incorporated | Spatio-temporal motion vector prediction patterns for video coding |
JP7073501B2 (ja) * | 2018-12-12 | 2022-05-23 | エルジー エレクトロニクス インコーポレイティド | 履歴ベース動きベクトル予測に基づいてビデオ信号を処理するための方法及び装置 |
WO2020130520A1 (ko) * | 2018-12-16 | 2020-06-25 | 엘지전자 주식회사 | 화면간 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치 |
US11902566B2 (en) * | 2018-12-28 | 2024-02-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Generating a motion vector predictor list |
JP2020108083A (ja) * | 2018-12-28 | 2020-07-09 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法及び画像符号化プログラム |
US20220078406A1 (en) * | 2018-12-29 | 2022-03-10 | Vid Scale, Inc. | History-based motion vector prediction |
US11800089B2 (en) * | 2019-01-02 | 2023-10-24 | Lg Electronics Inc. | SbTMVP-based inter prediction method and apparatus |
WO2020140242A1 (zh) * | 2019-01-03 | 2020-07-09 | 北京大学 | 视频处理方法和装置 |
CN111357290B (zh) * | 2019-01-03 | 2023-08-22 | 北京大学 | 视频图像处理方法与装置 |
CN111357288B (zh) * | 2019-01-03 | 2021-08-31 | 深圳市大疆创新科技有限公司 | 视频图像处理方法与装置 |
KR20240010576A (ko) | 2019-01-10 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut 업데이트의 호출 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
CN113330739A (zh) | 2019-01-16 | 2021-08-31 | 北京字节跳动网络技术有限公司 | Lut中的运动候选的插入顺序 |
US20200288175A1 (en) * | 2019-03-06 | 2020-09-10 | Qualcomm Incorporated | Signaling of triangle merge mode indexes in video coding |
WO2020177756A1 (en) | 2019-03-06 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Size dependent inter coding |
JP6897885B2 (ja) * | 2019-03-08 | 2021-07-07 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム |
CN113574890B (zh) * | 2019-03-11 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 基于指定的候选的成对运动候选列的构造 |
CN112969070B (zh) | 2019-03-11 | 2022-08-26 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
JP7448558B2 (ja) * | 2019-03-15 | 2024-03-12 | インターデイジタル ヴィーシー ホールディングス インコーポレイテッド | 画像エンコーディングおよびデコーディングのための方法およびデバイス |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
CN111953995A (zh) * | 2019-05-17 | 2020-11-17 | 华为技术有限公司 | 一种帧间预测的方法和装置 |
WO2020233660A1 (en) | 2019-05-21 | 2020-11-26 | Beijing Bytedance Network Technology Co., Ltd. | Syntax-based motion candidate derivation in sub-block merge mode |
EP3963889A4 (en) | 2019-06-04 | 2023-01-25 | Beijing Bytedance Network Technology Co., Ltd. | CONDITIONAL IMPLEMENTATION OF A MOVEMENT CANDIDATE LIST CONSTRUCTION PROCESS |
CN117395397A (zh) | 2019-06-04 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 使用临近块信息的运动候选列表构建 |
CN117354507A (zh) | 2019-06-06 | 2024-01-05 | 北京字节跳动网络技术有限公司 | 视频编解码的运动候选列表构建 |
EP3967039A4 (en) * | 2019-06-07 | 2022-07-06 | Beijing Dajia Internet Information Technology Co., Ltd. | SUB-BLOCK BASED TEMPORARY MOTION VECTOR PREDICTION FOR VIDEO ENCODING |
WO2020251319A1 (ko) * | 2019-06-13 | 2020-12-17 | 엘지전자 주식회사 | Sbtmvp를 이용한 인터 예측 기반 영상 또는 비디오 코딩 |
CN112118447B (zh) * | 2019-06-19 | 2023-06-20 | 华为技术有限公司 | 融合候选运动信息列表的构建方法、装置及编解码器 |
US11272199B2 (en) | 2019-06-24 | 2022-03-08 | FG Innovation Company Limited | Device and method for coding video data |
WO2020262901A1 (ko) | 2019-06-24 | 2020-12-30 | 엘지전자 주식회사 | 영상 디코딩 방법 및 그 장치 |
WO2021008513A1 (en) | 2019-07-14 | 2021-01-21 | Beijing Bytedance Network Technology Co., Ltd. | Transform block size restriction in video coding |
EP3997877A4 (en) | 2019-08-13 | 2023-05-24 | Beijing Bytedance Network Technology Co., Ltd. | MOTION ACCURACY IN SUBBLOCK-BASED INTERPREDICTION |
CN110740317B (zh) * | 2019-09-18 | 2021-10-15 | 浙江大华技术股份有限公司 | 子块运动预测、编码方法、编码器及存储装置 |
WO2021052507A1 (en) | 2019-09-22 | 2021-03-25 | Beijing Bytedance Network Technology Co., Ltd. | Sub-picture coding and decoding of video |
CN117596389A (zh) | 2019-09-28 | 2024-02-23 | 北京字节跳动网络技术有限公司 | 视频编解码中的几何分割模式 |
JP2022541687A (ja) * | 2019-10-10 | 2022-09-26 | ベイジン、ターチア、インターネット、インフォメーション、テクノロジー、カンパニー、リミテッド | 三角分割を用いたビデオ符号化の方法および装置 |
CN110691253B (zh) * | 2019-10-17 | 2022-03-01 | 北京大学深圳研究生院 | 一种基于帧间预测的编解码方法及装置 |
EP4333431A1 (en) | 2019-10-18 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Syntax constraints in parameter set signaling of subpictures |
CN115514971A (zh) * | 2019-12-24 | 2022-12-23 | 北京达佳互联信息技术有限公司 | 对视频数据进行编码的方法和装置 |
US11375231B2 (en) * | 2020-01-14 | 2022-06-28 | Tencent America LLC | Method and apparatus for video coding |
US20230104476A1 (en) * | 2021-10-05 | 2023-04-06 | Tencent America LLC | Grouping based adaptive reordering of merge candidate |
WO2024078331A1 (en) * | 2022-10-14 | 2024-04-18 | Mediatek Inc. | Method and apparatus of subblock-based motion vector prediction with reordering and refinement in video coding |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120287999A1 (en) | 2011-05-11 | 2012-11-15 | Microsoft Corporation | Syntax element prediction in error correction |
DK2755389T3 (en) | 2011-09-09 | 2019-04-01 | Lg Electronics Inc | Method of inter prediction and arrangement thereof |
US9736489B2 (en) * | 2011-09-17 | 2017-08-15 | Qualcomm Incorporated | Motion vector determination for video coding |
US9571833B2 (en) | 2011-11-04 | 2017-02-14 | Nokia Technologies Oy | Method for coding and an apparatus |
KR20130050406A (ko) | 2011-11-07 | 2013-05-16 | 오수미 | 머지 모드에서의 움직임 정보 생성 방법 |
US9729873B2 (en) | 2012-01-24 | 2017-08-08 | Qualcomm Incorporated | Video coding using parallel motion estimation |
US9325990B2 (en) | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
US9699450B2 (en) | 2012-10-04 | 2017-07-04 | Qualcomm Incorporated | Inter-view predicted motion vector for 3D video |
CN103841425B (zh) | 2012-10-08 | 2017-04-05 | 华为技术有限公司 | 用于运动矢量预测的运动矢量列表建立的方法、装置 |
US9762927B2 (en) | 2013-09-26 | 2017-09-12 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
-
2016
- 2016-01-25 US US15/005,564 patent/US11477477B2/en active Active
- 2016-01-26 ES ES16705364T patent/ES2755573T3/es active Active
- 2016-01-26 EA EA201791449A patent/EA035270B1/ru unknown
- 2016-01-26 CA CA2971636A patent/CA2971636C/en active Active
- 2016-01-26 CN CN201680006068.8A patent/CN107211156B/zh active Active
- 2016-01-26 EP EP16705364.4A patent/EP3251361B1/en active Active
- 2016-01-26 TN TNP/2017/000288A patent/TN2017000288A1/en unknown
- 2016-01-26 JP JP2017538966A patent/JP6636530B2/ja active Active
- 2016-01-26 BR BR112017015890-6A patent/BR112017015890B1/pt active IP Right Grant
- 2016-01-26 TW TW105102383A patent/TWI696382B/zh active
- 2016-01-26 WO PCT/US2016/014875 patent/WO2016123081A1/en active Application Filing
- 2016-01-26 KR KR1020177020567A patent/KR102102029B1/ko active IP Right Grant
- 2016-01-26 HU HUE16705364A patent/HUE047034T2/hu unknown
Also Published As
Publication number | Publication date |
---|---|
TWI696382B (zh) | 2020-06-11 |
HUE047034T2 (hu) | 2020-04-28 |
CN107211156A (zh) | 2017-09-26 |
KR20170108010A (ko) | 2017-09-26 |
WO2016123081A1 (en) | 2016-08-04 |
CA2971636A1 (en) | 2016-08-04 |
CA2971636C (en) | 2021-10-12 |
BR112017015890B1 (pt) | 2023-10-17 |
ES2755573T3 (es) | 2020-04-22 |
CN107211156B (zh) | 2019-08-30 |
EA035270B1 (ru) | 2020-05-22 |
EP3251361A1 (en) | 2017-12-06 |
US20160219278A1 (en) | 2016-07-28 |
BR112017015890A2 (pt) | 2018-04-10 |
JP2018506908A (ja) | 2018-03-08 |
TN2017000288A1 (en) | 2019-01-16 |
EA201791449A1 (ru) | 2017-12-29 |
KR102102029B1 (ko) | 2020-04-17 |
EP3251361B1 (en) | 2019-08-14 |
TW201640893A (zh) | 2016-11-16 |
US11477477B2 (en) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636530B2 (ja) | サブ予測ユニットベース高度時間動きベクトル予測 | |
JP6766079B2 (ja) | 空間および/または時間動き情報を使用するサブ予測ユニット動きベクトル予測 | |
JP7229774B2 (ja) | ビデオコーディングのための動きベクトル予測のためのマージ候補 | |
CN109644272B (zh) | 用于建构候选列表的几何型优先级 | |
CN109691106B (zh) | 一种对视频数据进行编解码的方法、装置及计算机可读存储介质 | |
CA3074701C (en) | Coding affine prediction motion information for video coding | |
CN108605136B (zh) | 基于图片次序计数的运动矢量精简 | |
JP6215295B2 (ja) | Hevcおよびその拡張における動きベクトルのコーディングおよび双予測 | |
KR102156947B1 (ko) | 고효율 비디오 코딩을 위한 하이-레벨 신택스 확장들 | |
JP2021182743A (ja) | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること | |
JP6855242B2 (ja) | ビデオコーディングのためのディスパリティベクトルおよび/または高度残差予測 | |
JP2018110407A (ja) | ビデオコード化における視差ベクトル予測 | |
JP2015515227A (ja) | ビデオコーディングのためのビュー間予測のための視差ベクトル生成 | |
WO2013188785A1 (en) | Temporal motion vector prediction in hevc and its extensions | |
OA18314A (en) | Sub-prediction unit based advanced temporal motion vector prediction. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190104 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191018 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636530 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |